UNIVERSIDAD POLITECNICA DE MADRID
FACULTAD DE INFORMATICA
MEDIDAS AUTOSEMEJANTES EN ELPLANO, MOMENTOS Y MATRICES
DE HESSENBERG
TESIS DOCTORAL
MARIA DEL CARMEN ESCRIBANO IGLESIAS
Lda. en Ciencias Matematicas
2012
DEPARTAMENTO DE MATEMATICA APLICADA
FACULTAD DE INFORMATICA
MEDIDAS AUTOSEMEJANTES EN ELPLANO, MOMENTOS Y MATRICES
DE HESSENBERG
Autora: Marıa del Carmen Escribano Iglesias
Lda. en Ciencias Matematicas
Directores: M. Asuncion Sastre Rosa
Dra. por la UPM, Lda. En Ciencias Matematicas
Emilio Torrano Gimenez
Dr. en Ciencias Matematicas
2012
Agradecimientos
Debo comenzar expresando mi mas sincero agradecimiento a mis directores Sonia
Sastre y Emilio Torrano que han hecho posible, con mucha paciencia, que la lectura
de esta tesis llegue por fin a termino. Gracias por compartir conmigo todas las horas
de discusion de seminarios y cafes que estan detras del trabajo que se presenta en
esta tesis. Incluyo tambien en este agradecimiento, especialmente a Raquel Gonzalo y
Antonio Giraldo que han estado detras de este trabajo. Gracias tambien a Venancio
Tomeo por su optimismo argumentado aleccionador.
Mi agradecimiento tambien, por un tiempo en el que he aprendido muchas cosas y
en el que he descubierto que hay muchas mas por aprender. Pero sobre todo porque
el tiempo dedicado ha sido, para mı, un tiempo divertido, de entusiasmo por el
descubrimiento y el asombro, en el que Sonia y Emilio son grandes maestros.
Son muchas las personas entre familiares y amigos que me han, literalmente
empujado, a terminar este tramite, y a las que agradezco mucho el empujon.
Carmen Escribano Iglesias
Madrid, diciembre 2012.
Indice general
INTRODUCCION 1
1. PRELIMINARES 7
1.1. Medidas autosemejantes . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.1. Medida y dimension de Hausdorff . . . . . . . . . . . . . . . . 10
1.1.2. Sistemas de funciones iteradas . . . . . . . . . . . . . . . . . . 13
1.1.3. Medidas invariantes . . . . . . . . . . . . . . . . . . . . . . . . 16
1.2. Teorıa de polinomios ortogonales, matrices infinitas y operadores . . 17
1.2.1. Matrices de momentos y polinomios ortogonales . . . . . . . 19
1.2.2. Matrices de Hessenberg y el operador multiplicacion por z . . 23
1.2.3. Matrices de Hessenberg asociadas a matrices HDP . . . . . . 25
2. MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJAN-
TES 31
2.1. Transformaciones de matrices de momentos por semejanzas . . . . . . 32
2.2. Matrices de momentos y formulas de recurrencia . . . . . . . . . . . 34
2.2.1. Caso real y la convolucion infinita de Bernoulli . . . . . . . . 36
2.2.2. Funcion generatriz exponencial de momentos . . . . . . . . . . 42
2.3. Algoritmo para matrices de momentos de medidas autosemejantes . . 44
2.4. Teorema del punto fijo para matrices de momentos de medidas auto-
semejantes en D . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
i
ii INDICE GENERAL
2.5. Teorema del punto fijo para matrices de momentos de medidas auto-
semejantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.5.1. Espacios metricos de matrices infinitas asociados a un SFI . . 55
2.5.2. Aproximacion de la matriz de momentos y velocidad de con-
vergencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.6. Formulas explıcitas para los momentos . . . . . . . . . . . . . . . . . 61
2.6.1. Inversa de una matriz triangular inferior . . . . . . . . . . . . 62
2.6.2. Expresiones de los momentos para la convolucion de Bernoulli 66
3. MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJAN-
TES 71
3.1. Transformaciones de matrices de Hessenberg por semejanzas . . . . . 72
3.1.1. Propiedades de invarianza . . . . . . . . . . . . . . . . . . . . 75
3.2. Matriz de Hessenberg de una suma de medidas . . . . . . . . . . . . . 77
3.3. Matriz de Hessenberg asociada a una medida autosemejante . . . . . 88
3.4. Comparativa de algoritmos y ejemplos . . . . . . . . . . . . . . . . . 91
3.5. Matriz de Hessenberg asociada a una suma de matrices HDP . . . . . 96
3.5.1. m-Suma de matrices de Hessenberg . . . . . . . . . . . . . . . 97
3.5.2. m-Suma de shifts con pesos . . . . . . . . . . . . . . . . . . 103
4. AUTOVALORES MINIMOS DE MATRICES DE MOMENTOS 109
4.1. Aproximacion polinomial en L2(µ) y comportamiento asintotico del
autovalor mınimo λn . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
4.2. Resultados relacionados para medidas en D . . . . . . . . . . . . . . . 123
5. CONCLUSIONES Y LINEAS FUTURAS DE INVESTIGACION 129
RESUMEN
La tesis MEDIDAS AUTOSEMEJANTES EN EL PLANO, MOMENTOS YMA-
TRICES DE HESSENBERG se enmarca entre las areas de la teorıa geometrica de
la medida, la teorıa de polinomios ortogonales y la teorıa de operadores. La memoria
aborda el estudio de medidas con soporte acotado en el plano complejo vistas con la
optica de las matrices infinitas de momentos y de Hessenberg asociadas a estas me-
didas que en la teorıa de los polinomios ortogonales las representan. En particular se
centra en el estudio de las medidas autosemejantes que son las medidas de equilibrio
definidas por un sistema de funciones iteradas (SFI).
Los conjuntos autosemejantes son conjuntos que tienen la propiedad geometri-
ca de descomponerse en union de piezas semejantes al conjunto total. Estas piezas
pueden solaparse o no, cuando el solapamiento es pequeno la teorıa de Hutchinson
[Hut81] funciona bien, pero cuando no existen restricciones falla. El problema del
solapamiento consiste en controlar la medida de este solapamiento. Un ejemplo de
la complejidad de este problema se plantea con las convoluciones infinitas de distri-
buciones de Bernoulli, que han resultado ser un ejemplo de medidas autosemejantes
en el caso real. En 1935 Jessen y A. Wintner [JW35] ya se planteaba este problema,
lejos de ser sencillo ha sido estudiado durante mas de setenta y cinco anos y si-
guen sin resolverse las principales cuestiones planteadas ya por A. Garsia [Gar62] en
1962. El interes que ha despertado este problema ası como la complejidad del mismo
esta demostrado por las numerosas publicaciones que abordan cuestiones relacio-
nadas con este problema ver por ejemplo [JW35], [Erd39], [PS96], [Ma00], [Ma96],
[Sol98], [Mat95], [PS96], [Sim05],[JKS07] [JKS11].
En el primer capıtulo comenzamos introduciendo con detalle las medidas auto-
semejante en el plano complejo y los sistemas de funciones iteradas, ası como los
conceptos de la teorıa de la medida necesarios para describirlos. A continuacion se
introducen las herramientas necesarias de teorıa de polinomios ortogonales, matrices
infinitas y operadores que se van a usar.
En el segundo y tercer capıtulo trasladamos las propiedades geometricas de las
medidas autosemejantes a las matrices de momentos y de Hessenberg, respectivamen-
te. A partir de estos resultados se describen algoritmos para calcular estas matrices
a partir del SFI correspondiente. Concretamente, se obtienen formulas explıcitas y
algoritmos de aproximacion para los momentos y matrices de momentos de medidas
fractales, a partir de un teorema del punto fijo para las matrices. Ademas utilizando
tecnicas de la teorıa de operadores, se han extendido al plano complejo los resultados
que G. Mantica [Ma00, Ma96] obtenıa en el caso real. Este resultado es la base para
definir un algoritmo estable de aproximacion de la matriz de Hessenberg asociada a
una medida fractal u obtener secciones finitas exactas de matrices Hessenberg aso-
ciadas a una suma de medidas. En el ultimo capıtulo, se consideran medidas, µ, mas
generales y se estudia el comportamiento asintotico de los autovalores de una matriz
hermitiana de momentos y su impacto en las propiedades de la medida asociada. En
el resultado central se demuestra que si los polinomios asociados son densos en L2(µ)
entonces necesariamente el autovalor mınimo de las secciones finitas de la matriz de
momentos de la medida tiende a cero.
ABSTRACT
The Thesis work “Self-similar Measures on the Plane, Moments and Hessenberg
Matrices” is framed among the geometric measure theory, orthogonal polynomials
and operator theory. The work studies measures with compact support on the com-
plex plane from the point of view of the associated infinite moments and Hessenberg
matrices representing them in the theory of orthogonal polynomials. More preci-
sely, it concentrates on the study of the self-similar measures that are equilibrium
measures in a iterated functions system.
Self-similar sets have the geometric property of being decomposable in a union
of similar pieces to the complete set. These pieces can overlap. If the overlapping
is small, Hutchinson’s theory [Hut81] works well, however, when it has no restric-
tions, the theory does not hold. The overlapping problem consists in controlling the
measure of the overlap. The complexity of this problem is exemplified in the infinite
convolutions of Bernoulli’s distributions, that are an example of self-similar measures
in the real case. As early as 1935 [JW35], Jessen and Wintner posed this problem,
that far from being simple, has been studied during more than 75 years. The main
cuestiones posed by Garsia in 1962 [Gar62] remain unsolved. The interest in this pro-
blem, together with its complexity, is demonstrated by the number of publications
that over the years have dealt with it. See, for example, [JW35], [Erd39], [PS96],
[Ma00], [Ma96], [Sol98], [Mat95], [PS96], [Sim05], [JKS07] [JKS11].
In the first chapter, we will start with a detailed introduction to the self-similar
measurements in the complex plane and to the iterated functions systems, also in-
cluding the concepts of measure theory needed to describe them. Next, we introduce
the necessary tools from orthogonal polynomials, infinite matrices and operators.
In the second and third chapter we will translate the geometric properties of self-
similar measures to the moments and Hessenberg matrices. From these results, we
will describe algorithms to calculate these matrices from the corresponding iterated
functions systems. To be precise, we obtain explicit formulas and approximation
algorithms for the moments and moment matrices of fractal measures from a new
fixed point theorem for matrices. Moreover, using techniques from operator theory, we
extend to the complex plane the real case results obtained by Mantica [Ma00, Ma96].
This result is the base to define a stable algorithm that approximates the Hessenberg
matrix associated to a fractal measure and obtains exact finite sections of Hessenberg
matrices associated to a sum of measurements.
In the last chapter, we consider more general measures, µ, and study the asym-
ptotic behaviour of the eigenvalues of a hermitian matrix of moments, together with
its impact on the properties of the associated measure. In the main result we de-
monstrate that, if the associated polynomials are dense in L2(µ), then necessarily
follows that the minimum eigenvalue of the finite sections of the moments matrix
goes to zero.
INTRODUCCION
Esta memoria se dedica principalmente al estudio de las medidas de equilibrio
asociadas a un sistema de funciones iteradas, mas concretamente un sistema forma-
do por semejanzas contractivas. Estas medidas se llaman medidas autosemejantes y
tienen su soporte en un conjunto autosemejante. Intuitivamente, un conjunto autose-
mejante es aquel que se puede descomponer en varias partes, cada una semejante al
total. Esta estructura se repite a diferentes escalas. Esta propiedad geometrica apa-
rece en las formas y procesos naturales. Por ello hay un fuerte interes en el estudio
de estos conjuntos y medidas.
Las medidas han sido tratadas desde dos puntos de vista diferentes. Un enfoque
es el de la teorıa de la medida, donde las medidas son funciones definidas sobre una
σ-algebra de conjuntos en un espacio topologico. En el otro enfoque, las medidas
aparecen asociadas a funcionales lineales positivos definidos sobre un espacio de
funciones continuas. Riesz [Rie23], establecio que los dos enfoques son equivalentes.
Por otro lado, la teorıa de los polinomios ortogonales tiene una fuerte relacion
con la teorıa de operadores y puede parecer, en principio, muy alejada del estudio
de las medidas autosemejantes. Sin embargo, el analisis de las propiedades de una
medida a partir del comportamiento de los coeficientes de la formula de recurrencia
(elementos de la trididiagonal de Jacobi) se remonta a O. Blumenthal [Blu898],
aunque el verdadero iniciador de la aplicacion de la teorıa de operadores al estudio
de los polinomios ortogonales es M.H. Stone que, en [Sto32], dedica una amplısima
1
INTRODUCCION
seccion al estudio de la tridiagonal de Jacobi. En otro orden hay que situar a G.
Szego [Sze36] o Shohat [ST43] interesados en la caracterizacion la medida, en el caso
de la circunferencia unidad o la recta real, pero sin utilizar tecnicas propias de la
teorıa de operadores. El teorema de E.A. Rakhmanov [Rak83, Rak87] es uno de
los resultados clave de los ultimos anos en la teorıa de los polinomios ortogonales
reales. La aparente simplicidad de su enunciado desperto el interes de numerosos
investigadores que han tratado de aproximarse a los problemas abiertos de su entorno,
retomando las tecnicas usadas por M.H. Stone, como es el caso de J. Dombrowski
[Dom78, Dom80, Dom84, Dom85, Dom87].
Las relaciones de recurrencia de los polinomios ortogonales han sido representa-
das por operadores definidos por matrices cuyas entradas guardan mucha informa-
cion sobre la medida. Es en este contexto matricial donde desarrollaremos nuestra
investigacion con el objeto de descubrir propiedades de las medidas en terminos de
propiedades de las matrices de momentos y de Hessenberg asociadas a estas medidas.
El estudio de las medidas y conjuntos autosemejantes fue introducido por Hut-
chinson en [Hut81]. El problema del solapamiento consiste en controlar el tamano del
solapamiento entre las piezas en que se descomponen los conjuntos autosemejantes.
Estas piezas pueden solaparse o no, cuando el solapamiento es pequeno la teorıa de
Hutchinson funciona bien, pero cuando no existen restricciones no se puede aplicar
y no se conoce ni la dimension del conjunto ni el comportamiento de la medida.
Un ejemplo de la complejidad de este problema se plantea con las convoluciones
infinitas de distribuciones de Bernoulli, que han resultado ser un ejemplo de medidas
autosemejantes en el caso real. En 1935 Jessen y A. Wintner [JW35] ya se planteaban
este problema, que lejos de ser sencillo ha sido estudiado durante mas de setenta y
cinco anos y siguen sin resolverse las principales cuestiones planteadas por A. Garsia
[Gar62] en 1962. El interes que ha despertado este problema ası como la complejidad
del mismo esta demostrado por las numerosas publicaciones que abordan cuestiones
2
INTRODUCCION
relacionadas con este problema, ver por ejemplo [JW35], [Erd39], [PS96], [Ma00],
[Ma96], [Sol98], [Mat95], [PS96], [Sim05], [JKS07] [JKS11], [HOS11]. En [Ass10] se
plantean una serie de problemas abiertos relacionados con el trabajo que hemos
desarrollado.
La mayor parte de los resultados que se van a presentar en la memoria utilizan
tecnicas que requieren de la teorıa de la medida, polinomios ortogonales, teorıa de
operadores y analisis funcional.
En el primer capıtulo se introducen con detalle los sistemas de funciones iteradas
y las medidas autosemejantes, ası como los conceptos de la teorıa de la medida nece-
sarios para describirlos. Para entender basicamente la definicon de medida autoseme-
jante se definen los conceptos de medida y dimension de Hausdorff y a continuacion
el concepto de sistema de funciones iteradas y medidas invariantes. En la ultima
parte del capıtulo se introducen las herramientas necesarias de la teorıa de polino-
mios ortogonales, matrices infinitas de momentos y de Hessenberg, y conceptos de la
teorıa de operadores que se van a utilizar mas adelante. Tambien recordaremos las
expresiones que relacionan las matrices de momentos y las matrices de Hessenberg
ası como la consistencia de las mismas que verifican sus secciones finitas, dadas en
[Tor87] y en [GT93].
En el segundo capıtulo presentamos las transformaciones de matrices de mo-
mentos que aparecen al considerar la medida inducida por una transformacion de
semejanza. Este resultado aplicado al caso de matrices de momentos de medidas
autosemejantes permitira definir una transformacion entre matrices de momentos
que replique la propiedad de invarianza para la matriz de momentos de la medida
invariante. De esta manera trasladamos las propiedades geometricas de las medidas
autosemejantes a las matrices de momentos. Las ecuaciones matriciales que se obtie-
nen dan lugar a formalizar un teorema de punto fijo en un espacio de matrices que
permite construir algoritmos de aproximacion para calcular estas matrices a partir
3
INTRODUCCION
del SFI correspondiente. Este punto fijo es necesariamente la matriz de momentos
de la medida autosemejante. Se analiza su velocidad de convergencia y se presentan
varios ejemplos. Ademas se obtienen funciones generatrices, formulas recursivas para
los momentos de estas medidas y mas concretamente, se obtienen expresiones explıci-
tas en terminos de numeros multinomicos y composiciones de numeros naturales para
los momentos y matrices de momentos de las convoluciones de Bernoulli.
El tercer capıtulo esta dedicado al estudio de las matrices de Hessenberg siguien-
do por el mismo camino que en el capıtulo anterior para las matrices de momentos.
Partiendo de la matriz de Hessenberg de una medida, se analiza la transformacion
de esta matriz cuando consideramos la medida inducida por una semejanza. A con-
tinuacion, se estudia la matriz de Hessenberg asociada a una suma de medidas y
se establece un algoritmo para calcular, de forma exacta, la matriz de Hessenberg
de esta suma a partir de las matrices de Hessenberg de las medidas componentes.
Estos resultados, aplicados al caso de medidas autosemejantes nos van a permitir
definir una transformacion de matrices de Hessenberg, y en definitiva de los poli-
nomios ortogonales. De esta manera trasladamos las propiedades geometricas de las
medidas autosemejantes a las matrices de Hessenberg. Las ecuaciones matriciales que
se obtienen dan lugar a un algoritmo en el que se utilizan tecnicas de la teorıa de
operadores y extiende al plano complejo los resultados que G. Mantica [Ma00, Ma96]
obtenıa en el caso real. Este resultado es la base para definir un algoritmo estable
para aproximar la matriz de Hessenberg asociada a una medida fractal con soporte
en el plano complejo.
La ultima idea que se presenta en este capıtulo se basa en tecnicas puramente
algebraicas que nos permiten definir lo que hemos llamado m-suma de matrices de
Hessenberg, incluso cuando no estemos respaldados por una medida. Se analizan pro-
piedades en relacion a los diferentes tipos de normalidad de las matrices componentes
en todos los casos de Shifts monotonos. Destacamos que en los ejemplos existe una
4
INTRODUCCION
m-suma de operadores no subnormales que resulta subnormal, de lo cual se deduce
que esta forma de sumar “crea medida de donde no la hay”.
En el capıtulo cuarto se consideran medidas mas generales. Estudiaremos el com-
portamiento asintotico de los autovalores de la matriz de momentos y su impacto en
las propiedades de la medida asociada. Berg, Chen e Ismail [BCI02] probaron que
una medida µ sobre R es determinada, si y solo si la sucesion λn de los autovalores
mınimos de cada seccion de orden n + 1 de la matriz de momentos tiende a cero.
Recuerdese que una medida µ es determinada cuando el problema de los momentos
tiene como unica solucion la medida µ. Este nuevo criterio para la determinacion de
una medida ha motivado el estudio de este comportamiento en el caso de medidas
con soporte compacto en el plano complejo. En este contexto, la situacion es com-
pletamente diferente, ya que por ejemplo, la medida de Lebesgue normalizada en
la circunferencia unidad, que como sabemos es la solucion de un problema de mo-
mentos determinado, tiene como matriz de momentos asociada la matriz identidad
I y obviamente λn = 1 para todo n ∈ N. El resultado que hemos obtenido es que
el comportamiento asintotico del autovalor mınimo λn esta relacionado con el pro-
blema de aproximacion por polinomios, esto es, con el problema de la completitud
en lugar de con el problema de la determinacion. El resultado central prueba que si
los polinomios asociados a la medida µ son densos en L2(µ) entonces el autovalor
mınimo de las secciones finitas de la matriz de momentos de la medida tiende a cero.
5
Capıtulo 1
PRELIMINARES
En este capıtulo se recuerdan las definiciones y resultados basicos de la teorıa
de la medida, teorıa de operadores y polinomios ortogonales que utilizaremos en los
capıtulos posteriores. Para los resultados generales que vamos a recordar en este
capıtulo sobre teorıa de la medida y geometrıa fractal se puede consultar en K. J.
Falconer [Fal90], sobre polinomios ortogonales en [Chi78], [Sze75] por T. S. Chihara
y G. Szego, respectivamente y sobre teorıa de operadores, ver por ejemplo J. B.
Conway [Con91] y J. Bram [Bra55].
En todo el trabajo consideraremos (X, d) un espacio metrico separable y comple-
to, que normalmente sera un compacto de R, R2 o C con la metrica euclıdea.
1.1. Medidas autosemejantes
La medida de Lebesgue trata de medir conjuntos a partir de recubrimientos con
conjuntos sencillos como son los intervalos en Rn. Sin embargo, existen conjuntos
con una estructura mas complicada que no se miden bien con esta medida, como
el conjunto de Cantor u otros conjuntos fractales y para los cuales las tecnicas del
calculo integral no proporcionan una solucion satisfactoria.
Para introducir otro tipo de medidas mas adecuado para el estudio de estos con-
7
PRELIMINARES
juntos recordaremos varios conceptos de teorıa de la medida y de geometrıa fractal,
que se pueden encontrar en [Edg98].
Una σ-algebra, A, de conjuntos en un espacio X es una familia no vacıa de
subconjuntos de X que es cerrada con las operaciones de complementarios y uniones
numerables.
Definicion 1.1.1. Una medida µ en X es una funcion de conjunto, definida en una
σ-algebra de X, A, que es no negativa y σ-aditiva. Esto es, µ : A → [0,∞] es una
medida si verifica la siguiente propiedad:
Si A1, A2, . . . ∈ A, disjuntos dos a dos, entonces
µ
(∞∪i=1
Ai
)=
∞∑i=1
µ(Ai).
En este caso decimos que (µ,A, X) es un espacio de medida y que los elementos
de A son los conjuntos µ-medibles. Recordemos que la σ-algebra de Borel, B, es la
mınima σ-algebra que contiene a los conjuntos abiertos.
Existe tambien un concepto de medida mas amplio denominado medida exterior
utilizado en geometrıa fractal donde la funcion de conjunto se define sobre partes de
X, P(X).
Definicion 1.1.2. La funcion de conjunto µ∗ : P(X) → [0,∞] es una medida
exterior si verifica las siguientes propiedades.
1. µ∗(∅) = 0.
2. µ∗(A) ≤ µ∗(B) para todo A ⊂ B.
3. µ∗
(∞∪i=1
Ai
)≤
∞∑i=1
µ∗(Ai).
Ademas un conjunto C ⊂ X es µ∗-medible si
µ∗(E) = µ∗(E ∩ C) + µ∗(E \ C) para todo E ⊂ X,
y el conjunto A∗ de los conjuntos µ∗-medibles es un σ-algebra.
8
1.1 Medidas autosemejantes
Observacion 1.1.3. Toda medida µ definida en una σ-algebra A, se puede extender
a una medida exterior µ∗, de la siguiente forma
µ∗(C) = ınfµ(A) | C ⊂ A ∈ A.
Recıprocamente, toda medida exterior restringida a la σ-algebra de los conjuntos
medibles es una medida. Esto nos permite hablar de medida aunque nos refiramos a
una medida exterior.
Esta forma de definir medidas mediante recubrimientos es en la que se basara la
definicion de medidas de Hausdorff.
Necesitaremos tambien los siguientes conceptos.
Definicion 1.1.4. Sea (µ,A, X) un espacio de medida. Se dice que µ es una medida
finita si µ(X) < ∞ y que es una medida de probabilidad cuando µ(X) = 1. Se dice
que µ es una medida σ-finita si existen A1, A2, . . . ∈ A con X ⊂∪∞
i=1Ai tal que
µ(Ai) < ∞. Se dice que µ es una medida de Borel si los conjuntos de Borel son
µ-medibles.
El soporte de una medida es el conjunto Supp(µ) formado por los puntos x tales
que µ(E) > 0 para todo conjunto E que tiene x como punto interior. El soporte
puntual de µ es el conjunto A(µ) = x ∈ X | µ(x) > 0 de los puntos con masa
o atomos. Una medida se dice continua o discontinua dependiendo de si el soporte
puntual es vacıo o no. Se dice que µ es puramente atomica si µ(A(µ)) = µ(X).
Diremos que es singular, si es continua y existe un conjunto E de Borel de medida
de Lebesgue cero y tal que µ esta concentrada en E, es decir, µ(X \E) = 0. Diremos
que µ es absolutamente continua respecto de ν, esto es µ << ν, si µ(E) = 0 para
todo conjunto de Borel E con ν(E) = 0. Por ultimo, diremos que una medida es
absolutamente continua respecto de la medida de Lebesgue, si µ(E) = 0 para todo
conjunto de Borel E de medida de Lebesgue cero. Este caso se da si y solo si existe
9
PRELIMINARES
una funcion f integrable Lebesgue, es decir, f ∈ L1, de forma que
µ(E) =
∫E
f(x)dx,
para cualquier conjunto de Borel E. Esta funcion f se llama densidad de µ.
En lo que sigue, MP (X) denotara el conjunto de las medidas de probabilidad Bo-
rel regulares en el espacio metrico (X, d). La convergencia debil de medidas definida
a continuacion se puede ver en [Edg98].
Definicion 1.1.5. Diremos que una sucesion de medidas µn ⊂ MP (X) converge
debilmente a µ ∈ MP (X) si
lımn→∞
∫fdµn =
∫fdµ, para toda funcion f ∈ C0(X),
donde C0(X) es el espacio de las funciones continuas en X, con soporte compacto.
Esta convergencia la notaremos por µn → µ.
Teorema 1.1.6. Una sucesion µn de medidas en MP (X) es debilmente conver-
gente a µ ∈ MP (X) si y solo si, µn(E) → µ(E) para todo conjunto E de X tal que
µ(∂E) = 0, donde ∂E denota la frontera del conjunto E.
1.1.1. Medida y dimension de Hausdorff
Uno de los metodos de construccion de medidas es el metodo de Caratheodory o
Metodo II. Este procedimiento consiste en recubrir el conjunto a medir con conjuntos
de diametro menor que δ, evaluar los conjuntos del recubrimiento con una funcion
de conjunto, para despues tomar el ınfimo y hacer tender δ a cero. Variando el tipo
de conjuntos que se utilizan para recubrir y la funcion que determina que evaluar
de estos conjuntos, se obtienen diferentes medidas. Por ejemplo, si utilizamos bolas
para recubrir en la definicion de Hs, se obtienen las medidas de Hausdorff esfericas,
Bs. La medida s-dimensional (s ∈ R+) de Hausdorff, Hs, de un conjunto A ⊂ Rn
se define recubriendo el conjunto A por conjuntos cualesquiera con diametro menor
10
1.1 Medidas autosemejantes
que un cierto δ. Como no podemos evaluar la medida de estos conjuntos arbitrarios,
lo que evaluamos es su diametro elevado a s. Tomamos el ınfimo de estos valores,
para cada δ y hacemos tender δ a cero, es decir,
Hs(A) = supδ>0
ınf
∞∑i=1
diams(Si) : A ⊂∞∪i=1
Si, diam(Si) ≤ δ
.
Si llamamos
Hsδ (A) = ınf
∞∑i=1
diams(Si) : A ⊂∞∪i=1
Si, diam(Si) ≤ δ
,
se tiene que Hs(A) = lımδ↓0
Hsδ (A).
En el caso particular de s = 0 consideraremos por convenio que 00 = 1, y se tiene,
H0(A) =
card(A) si A es finito,
∞ si A es infinito.
Es decir, la medida H0 es la de contar el numero de elementos que tiene el
conjunto. Tambien se puede ver que si s = 1 y γ ⊂ Rn es una curva rectificable (de
longitud finita) entonces H1(γ) = long(γ). Ademas, se puede probar que Hn coincide
con Ln salvo una constante (la medida de la bola unidad en Rn), para todo n ∈ N
(ver [Fal90]).
Teorema 1.1.7. La medida s-dimensional de Hausdorff Hs es una medida exterior
y cumple las siguientes propiedades:
i) Si f es una isometrıa (es decir |f(x)− f(y)| = |x− y|, ∀x, y), entonces
Hs(f(A)) = Hs(A).
ii) Si f es una homotecia de razon λ (es decir |f(x) − f(y)| = λ|x − y|,∀x, y),
entonces
Hs(f(A)) = λsHs(A).
11
PRELIMINARES
iii) Si f es lipschitziana (es decir ∃c > 0 tal que |f(x) − f(y)| ≤ c|x − y|, ∀x, y),
entonces
Hs(f(A)) ≤ csHs(A).
Como consecuencia, las s-medidas son homogeneas por semejanzas en el siguiente
sentido: Si f : Rn → Rm es una semejanza de razon r entonces para todo E ⊂ Rn se
tiene que Hs(f(E)) = rsHs(E).
Definicion 1.1.8. Dado un conjunto A ⊂ Rn, existe un unico valor s tal que H t(A) = ∞ si t < s,
H t(A) = 0 si t > s.
A este s le llamaremos dimension de Hausdorff del conjunto A y lo notaremos por
dim(A) = s, es decir,
dim(A) = sups ∈ R+ | Hs(A) = ∞
= ınf
s ∈ R+ | Hs(A) = 0
.
Si A tiene medida finita y positiva 0 < Hs(A) < ∞, entonces diremos que A es
un s-conjunto o un s-fractal.
Las propiedades geometricas de esta dimension permiten calcular directamente la
dimension de Hausdorff de un conjunto en algunos casos particulares. Sea A ⊂ Rn y
supongamos que existe una semejanza, f , de razon r (0 < r < 1), de forma que f(A)
es una parte de A para la que sabemos determinar la proporcion t (0 < t < 1) de su
medida con respecto a la medida de A. Entonces, teniendo en cuenta las propiedades
de las s-medidas, para cada s ≥ 0 se verifica:
Hs(f(A)) = rsHs(A)
Hs(f(A)) = tHs(A)
⇒ rsHs(A) = tHs(A).
y si existe un s para el que 0 < Hs(A) < ∞ (y, por tanto, dim(A) = s), entonces se
ha de cumplir que
rs = t ⇒ s =log t
log r·
12
1.1 Medidas autosemejantes
Una vez obtenido s de esta forma habra que demostrar que 0 < Hs(A) < ∞
puesto que podrıa no existir tal s.
Veamos un ejemplo que, ademas de ilustrar este metodo, nos permitiran calcular
la dimension de algunos de los conjuntos fractales clasicos.
Ejemplo 1.1.9. Triangulo de Sierpinski T 12. La construccion del triangulo de Sier-
pinski T 12consiste en dividir un triangulo en cuatro triangulos semejantes al inicial y
eliminar el central, este proceso se itera sobre cada uno de los triangulos que quedan
en cada paso sucesivo, de manera que el conjunto lımite sera el triangulo, como se
muestra en la figura.
Figura 1.1: Triangulo de Sierpinski
Puesto que este conjunto se compone de tres partes iguales (las partes del con-
junto T 12que corresponden a los tres triangulos T0, T1, T2 de la primera etapa de
la construccion del triangulo de Sierpinski) semejantes al conjunto total, podemos
calcular la dimension por el procedimiento que acabamos de describir y se obtiene
s =log 3
log 2·
1.1.2. Sistemas de funciones iteradas
Los resultados que se exponen en esta seccion se deben principalmente a Hutchin-
son, quien formalizo la teorıa de conjuntos y medidas autosemejantes en [Hut81]. Se
considera el espacio H(X) de los conjuntos compactos no vacıos de Rn con la metrica
de Hausdorff (ver [Fal90]). Este espacio metrico es completo.
13
PRELIMINARES
Sea Φ = φ1, φ2, . . . , φk un conjunto de funciones contractivas con factores de
contraccion r1, r2, . . . , rk respectivamente. La aplicacion de conjunto S Φ definida, en
el espacio H(Rn) de los conjuntos compactos en Rn, de la forma
S Φ(A) =k∪
i=1
φi(A),
es una funcion contractiva en el espacio H(Rn) con la metrica de Hausdorff, y su
factor de contraccion es r = max ri | i = 1, 2, . . . , k.
Con las siglas SFI (sistema de funciones iteradas) denotaremos un conjunto finito
Φ de semejanzas contractivas en un espacio metrico completo, sobrentendiendo la
aplicacion contractiva S Φ, con su factor de contraccion r. La definicion de SFI es
mas general ya que puede estar formado simplemente por funciones contractivas.
Como consecuencia del teorema del punto fijo para funciones contractivas en
espacios metricos completos se obtiene el siguiente resultado.
Teorema 1.1.10. Sea Φ = φ1, φ2, . . . , φk un SFI con factor de contraccion r.
Entonces existe un unico conjunto E ∈ H(Rn) fijo para S Φ que cumple
E = S Φ(E) = lımi→∞
S Φi(F ), para todo compacto F,
donde S Φi denota la composicion i-veces de S Φ consigo misma.
El conjunto E se llama atractor del SFI, ya que se puede considerar el siste-
ma dinamico discreto definido por S Φ. Para este sistema dinamico el punto fijo es
atractivo.
La dimension de semejanza del conjunto E, si las funciones contractivas son
semejanzas y tienen los factores de contraccion r1, r2, . . . , rk, es el unico numero
s ∈ R+ que verifica
rs1 + rs2 + · · ·+ rsk = 1.
En general se tiene que la dimension de semejanza es mayor o igual que la dimension
de Hausdorff, aunque en muchos casos, como el conjunto de Cantor o el Triangulo
de Sierpinski, se da la igualdad.
14
1.1 Medidas autosemejantes
Definicion 1.1.11. Diremos que un sistema Φ = φ1, φ2, . . . , φk de semejanzas
contractivas de Rn cumple la condicion de abierto (OSC, del ingles “open set condi-
tion”) si existe un conjunto V abierto y acotado de Rn tal que
i)k∪
i=1
φi(V ) ⊂ V .
ii) φi(V )∩φj(V ) = ∅ si i = j.
En 1994 A. Schief [Sch94] demuestro que la condicion de abierto es equivalente a la
condicion fuerte de abierto, es decir V corta al conjunto autosemejante E, V ∩E = ∅.
Teorema 1.1.12. Sea Φ = φ1, φ2, . . . , φk un sistema de semejanzas contractivas
de Rn con razones ri, 1 ≤ i ≤ k. Si el sistema cumple la condicion de abierto entonces
el compacto invariante para Φ es autosemejante y se cumple
dimH E = s,
siendo s el unico numero real no negativo s tal que
k∑i=1
(ri)s = 1.
Ejemplo 1.1.13. El Conjunto de Cantor. Podemos comprobar que el conjunto de
Cantor es un conjunto autosemejante, ya que se compone de dos copias iguales al
conjunto total, de tamano1
3del tamano de este.
Al ser un conjunto autosemejante y al cumplir la condicion de abierto podemos
calcular su dimension de semejanza. Para calcular su dimension de semejanza, hay
que observar que C es el punto fijo del SFI
Φ =
φ1(x) =
1
3x, φ2(x) =
1
3x+
2
3
,
y que cumple la condicion de abierto con el conjunto abierto O = (0, 1). Por tanto,
dims(C) = s, siendo s el unico valor que cumple 21
3s= 1.
Es decir, el conjunto de Cantor C tiene dimension s =log 2
log 3.
15
PRELIMINARES
1.1.3. Medidas invariantes
Vamos a introducir las medidas autosemejantes asociadas a un SFI con probabi-
lidades. Para ello, vamos a definir una metrica en el conjunto MP (X) de las medidas
de Borel de probabilidad, definidas sobre el espacio metrico (X, d).
Ademas, la convergencia debil coincide con la convergencia respecto a esta metri-
ca. Recordaremos tambien como, gracias al teorema de punto fijo para funciones
contractivas, obtenemos las medidas autosemejantes.
Definicion 1.1.14. Se define la metrica de Hutchinson para µ, µ′ ∈ MP (X), como:
dH(µ, µ′) = sup
∣∣∣∣∫ fdµ−∫
fdµ′∣∣∣∣ | f : X → R continua, |f(x)− f(y)| ≤ d(x, y), ∀x, y ∈ X
.
Para la demostracion de la equivalencia entre la convergencia debil y la conver-
gencia en la metrica de Hutchinson, ver [Fal97].
El siguiente teorema se puede encontrar en [Bar93] y [Hut81].
Teorema 1.1.15. Sea (X, d) un espacio metrico completo. Entonces el espacioMP (X)
con la metrica de Hutchinson dH es un espacio metrico compacto.
Definicion 1.1.16. Sea (X, d) un espacio metrico. Consideramos el sistema de fun-
ciones iteradas con probabilidades
Φ = φ1, φ2, . . . , φk; p1, p2, . . . pk,
donde pi > 0 para todo i ∈ 1, 2, . . . , k yk∑
i=1
pi = 1.
El operador de Markov asociado al SFI, es una funcion T : MP (X) → MP (X)
definida por
T (µ) =k∑
i=1
piµ φ−1i .
Notese, que si f : X → X es una funcion continua, es claro que la imagen inversa
por f de un conjunto de Borel es un conjunto de Borel, por lo que si µ ∈ MP (X)
16
1.2 Teorıa de polinomios ortogonales, matrices infinitas y operadores
se tiene que µ f−1 ∈ MP (X). Los siguientes resultados se pueden encontrar en
[Bar93, pg. 350].
Lema 1.1.17. Sea T el operador de Markov asociado al SFI con probabilidades
Φ = φ1, φ2, . . . , φk; p1, p2, . . . pk. Sea f : X → R una funcion simple o una funcion
continua. Sea µ ∈ MP (X). Entonces,∫X
fd(T (µ)) =k∑
i=1
pi
∫X
f φidµ.
Teorema 1.1.18. Sea (X, d) un espacio metrico. Consideramos el sistema de fun-
ciones iteradas con probabilidades
Φ = φ1, φ2, . . . , φk; p1, p2, . . . pk.
Sea r el factor de contraccion del SFI. Entonces, el operador de Markov asociado
a este SFI es una funcion contractiva en MP (X), con factor de contraccion r, es
decir,
dH(T (µ), T (µ′)) ≤ rdH(µ, µ
′).
En particular, existe una unica medida de probabilidad µ ∈ MP (X) invariante para
T , es decir, T (µ) = µ. El soporte de esta medida es el unico compacto invariante
asociado al SFI Φ. Esta medida se llamara medida autosemejante cuando Φ este for-
mado por semejanzas.
1.2. Teorıa de polinomios ortogonales, matrices
infinitas y operadores
La teorıa de los polinomios ortogonales es una disciplina muy amplia que puede ser
abordada desde muy diferentes puntos de vista. La conexion directa de las medidas
y los polinomios ortogonales esta presente en la propia definicion de ortogonalidad,
es claro que las propiedades de una medida influyen en la sucesion de polinomios
17
PRELIMINARES
ortogonales que genera y viceversa. Las relaciones de recurrencia de los polinomios
ortogonales han sido representadas por operadores y analizados con exito deduciendo
propiedades de las medidas ya desde M.H. Stone en 1932, O. Blumental en 1998, por
J. Dombrowski 1978-87 o por E.A. Rakhmanov 1983 -87. Estos operadores vienen
definidos por matrices cuyas entradas guardan mucha informacion sobre la medida.
Es en este contexto matricial donde desarrollaremos nuestra investigacion con el
objeto de descubrir propiedades de las medidas en terminos de propiedades de las
matrices de momentos y de Hessenberg asociadas a estas medidas. La mayor parte de
los resultados que se van a presentar en la memoria utilizan tecnicas que requieren
de la teorıa de la medida, polinomios ortogonales, teorıa de operadores y analisis
funcional. De hecho, la sucesion de polinomios ortonormales con respecto a una cierta
medida con soporte acotado en el plano complejo es una base infinita ortonormal con
respecto a un cierto producto interior que induce la matriz de momentos. Ademas
el operador multiplicacion por z sobre los polinomios esta representado por una
matriz infinita Hessenberg superior. Estas matrices y sus secciones finitas verifican
ciertas relaciones que nos van a permitir obtener informacion sobre la medida. Este
es el punto esencial que nos permitira sumergir el estudio de dichos polinomios en el
contexto mas amplio de los espacios de Hilbert. Por ello las herramientas del Algebra
Lineal para espacios vectoriales de dimension finita e infinita resultaran esenciales
en este trabajo.
En lo que sigue recordamos algunos conceptos fundamentales sobre la teorıa de
los polinomios ortogonales.
Denotaremos por D = z; |z| < 1 el disco unidad y T = z; |z| = 1 denotara la
circunferencia unidad. Dada una matriz D (finita o infinita) denotaremos por DT la
matriz traspuesta de D y por D∗ la traspuesta conjugada de la matriz D y en la
misma forma lo haremos para vectores. Si D es un operador, D⋆ denotara el operador
adjunto de D. Consideraremos N0 = N∪0.
18
1.2 Teorıa de polinomios ortogonales, matrices infinitas y operadores
1.2.1. Matrices de momentos y polinomios ortogonales
Consideraremos a lo largo de la memoria que µ es una medida Borel de probabilidad
con soporte Supp(µ) acotado en el plano complejo y en general con infinitos puntos
de crecimiento efectivo.
denotaremos L2(µ) el espacio de Hilbert de las funciones f : C → C tales que∫|f(z)|2dµ < ∞.
Se define en el espacio L2(µ) el producto interior usual. Consideraremos la inclu-
sion canonica del espacio vectorial P[z] de polinomios de variable compleja en L2(µ),
con el producto interior ∀Q(z), R(z) ∈ P[z] que viene expresado por
⟨Q(z), R(z)⟩µ =
∫Supp(µ)
Q(z)R(z)dµ(z).
Sea zn∞n=0 la base canonica, aplicando el proceso de Gram Schmidt se obtiene
una sucesion de polinomios ortonormales, abreviadamente SPON, Pn(z)∞n=0 aso-
ciados a la medida µ. Los coeficientes de estos polinomios pueden ser complejos,
aunque elegiremos el coeficiente conductor del polinomio Pn(z) real y positivo para
determinarla de manera unica. Asimismo si bn,n es el coeficiente conductor de Pn(z),
denotaremos por Pn(z)∞n=0, con Pn(z) =1
bn,nPn(z), la sucesion de polinomios moni-
cos. Recordemos tambien que para cada n ∈ N, el n-nucleo en z, w ∈ C se define
como Kn(z, w) =∑n
k=0 Pk(z)Pk(w).
Recordemos que el momento (i, j) asociado a la medida µ es
cij = ⟨zi, zj⟩ =∫
zizjdµ(z) para todo i, j ∈ N0,
y que su matriz de momentos es la matriz infinita hermitiana definida positiva,
abreviadamente HDP,
M(µ) =
c00 c10 c20 . . .
c01 c11 c21 . . .
c02 c12 c22 . . .
......
.... . .
.
19
PRELIMINARES
Observacion 1.2.1. Si denotamos por Mn la seccion n-esima de la matriz M(µ) se
tiene que |Mn| > 0 para todo n ∈ N0 puesto que M(µ) es HDP. Si el soporte de µ
tuviera un numero finito de puntos de crecimiento efectivo (soporte= numero finito
de atomos) la SPON serıa finita y M serıa semidefinida positiva, esto es, |Mn| ≥ 0,
para todo n ∈ N0.
Consideramos el espacio C00 de las sucesiones complejas con una cantidad finita
de terminos no nulos, es decir,
C00 = (vn)∞n=0 tales que existe n0 ∈ N con vn = 0 para n ≥ n0.
La identificacion de P[z] con el espacio C00 nos permite usar la matriz infinita de
momentos para representar el producto interior. Ası, si p(z) = v0 + · · · + vnzn lo
identificamos con el vector infinito v = (v0, . . . , vn, 0, 0, . . . ) ∈ C00.
Dados dos polinomios cualesquiera p(z), q(z) ∈ P[z], digamos p(z) = v0+· · ·+vnzn
y q(z) = w0+ · · ·+wmzm, y los vectores correspondientes v = (v0, . . . , vn, 0, 0, . . . ) y
w = (w0, . . . , wm, 0, 0, . . . ), podemos representar el producto interior matricialmente
a traves de la matriz de momentos M(µ)
∫p(z)q(z)dµ =
(w0 w1 . . .
)M(µ)
v0
v1...
= wM(µ)vt = vM t(µ)w∗,
donde vt, v y v∗ denotan los vectores traspuesto, conjugado y traspuesto conjugado
de v, respectivamente. Muchos autores representan el producto interior a traves de
la ultima expresion vM t(µ)w∗, y llaman matriz de momentos a la matriz traspues-
ta, M t(µ). A lo largo de este trabajo manejaremos la primera expresion salvo en
el capıtulo 4 que para mayor comodidad de lectura de las formulas se utilizara la
segunda expresion.
El espacio P 2(µ), denotara el espacio de Hilbert que consiste en la compleccion
de P[z] con la norma definida a partir del producto interior ⟨, ⟩µ, esto es, el cierre de
20
1.2 Teorıa de polinomios ortogonales, matrices infinitas y operadores
P[z] in L2(µ). Si dada una medida µ, los polinomios son densos en L2(µ) tenemos
que P 2(µ) = L2(µ) y se dice que estamos en un caso completo.
A continuacion veremos como el hecho de que el soporte de la medida asociada
este contenido en la recta real, en la circunferencia unidad o en el plano complejo,
determina diferentes tipos de matrices de momentos.
Sea µ una medida con soporte en la recta real. En este caso los momentos cij son
reales y se tiene que para cada i, j ∈ N0
cij =
∫zizjdµ =
∫Rxi+jdµ = si+j ∈ R,
por lo que la matriz infinita de momentos sera del tipo:
s0 s1 s2 s3 . . .
s1 s2 s3 s4 . . .
s2 s3 s4 s5 . . .
s3 s4 s5 s6 . . .
......
......
. . .
.
A continuacion mostraremos un ejemplo de este tipo de matriz conocida como matriz
de Hankel.
Ejemplo 1.2.2. La medida de Lebesgue en el intervalo [0, 1] tiene por momentos
cij =
∫ 1
0
xi+jdx =1
i+ j + 1para cada i, j ∈ N0 .
La matriz de momentos asociada a esta medida es:
H =
1 1/2 1/3 . . .
1/2 1/3 1/4 . . .
1/3 1/4 1/5 . . .
......
.... . .
,
que es conocida como la matriz de Hilbert.
21
PRELIMINARES
Consideramos ahora una medida ν sobre la circunferencia unidad T.
Teniendo en cuenta que si z ∈ T se tiene que z =1
zentonces
cij =
∫Tzizjdν =
∫Tzi−jdν = ci−j ∈ C,
y por lo tanto la matriz de momentos sera
c0 c1 c2 c3 . . .
c−1 c0 c1 c2 . . .
c−2 c−1 c0 c1 . . .
c−3 c−2 c−1 c0 . . .
......
......
. . .
,
donde c−i = ci y c0 = ν(T) ∈ R. Estas matrices que son constantes en todas las
subdiagonales principales son conocidas como matrices de Toeplitz. En el siguiente
ejemplo veremos una matriz de momentos de este tipo.
Ejemplo 1.2.3. La medida de Lebesgue normalizada en la circunferencia unidad
viene dada por dν(θ) = 12πdθ. Expresando z = eiθ = cos θ + i sen θ, los momentos
seran
ck−j = ck,j =
∫Tzk−jdν =
1
2π
∫ 2π
0
ei(k−j)θdθ = δk−j
donde δk−j = 0 si k = j y δk−j = 1 si j = k. La matriz que queda es claramente la
matriz identidad
1 0 0 . . .
0 1 0 . . .
0 0 1 . . .
......
.... . .
.
En este caso la SPON es la sucesion 1√2π
zn∞n=0 y P 2(m) = H2 es el espacio
de Hardy en el disco unidad y podemos identificar, como es usual, las funciones de
H2 con los vectores de ℓ2(N0); mas precisamente, ∥∑∞
k=0 akzk∥2H2 =
∑∞k=0 |ak|2 para
cada (an)∞n=1 ∈ ℓ2(N0).
22
1.2 Teorıa de polinomios ortogonales, matrices infinitas y operadores
1.2.2. Matrices de Hessenberg y el operador multiplicacion
por z
En el espacio de Hilbert P 2(µ), consideramos el operador multipiplicacion por
z que denotaremos por Sµ definido por Sµ : P 2(µ) → P 2(µ) con Sµ(f) = zf para
todo f ∈ P 2(µ). Este operador es un operador acotado puesto que el soporte de µ
es acotado.
Consideramos D = (djk)∞j,k=0 la matriz infinita que representa este operador en
la base ortonormal que forma la SPON Pn(z)∞n=0. Esta claro que de la definicion
de operador multiplicacion por z se deduce la formula de recurrencia larga para la
SPON
zPn(z) =n+1∑k=0
dk,nPk(z), n ≥ 0, (1.1)
con P0(z) = 1 cuando c00 = 1.
Teniendo en cuenta esta relacion se obtiene la siguiente expresion de la matriz
infinita Hessenberg superior D
D =
d00 d01 d02 d03 . . .
d10 d11 d12 d13 . . .
0 d21 d22 d23 . . .
0 0 d32 d33 . . .
......
......
. . .
.
Podemos considerar que la matriz infinita D define un operador de Hessenberg
acotado D : ℓ2(N0) → ℓ2(N0), dado por D(v) = Dv, si v ∈ ℓ2(N0). Por ello nos
referiremos a este operador D, aunque hablemos de la matriz D asociada a la matriz
de momentos M . De lo anterior se deduce que D es unitariamente equivalente a Sµ,
por esto nos referiremos en general a D aunque muchos resultados sean ciertos para
Sµ.
Esta matriz de Hessenberg D es la generalizacion de la conocida tridiagonal de
Jacobi al plano complejo.
23
PRELIMINARES
En [Con85, Hal84] se encuentran las siguientes definiciones y resultados que usa-
remos a lo largo de la memoria en relacion al tipo de normalidad de un operador
acotado D, definido en un espacio de Hilbert H.
Definicion 1.2.4. Un operador D, se dice que es normal si D∗D = DD∗; se dice
que es cuasinormal si DD∗D = DD∗D; se dice que es hiponormal si D∗D−DD∗ ≥ 0
y, por ultimo, se dice que es subnormal si existe un operador normal N y un espacio
Hilbert K ⊃ H, tal que N : K −→ K, con N(H) ⊂ H y D = N |H .
Proposicion 1.2.5. Se verifica la siguiente cadena de implicaciones
D normal =⇒ D es cuasinormal =⇒ D es subnormal =⇒ D es hiponormal.
Proposicion 1.2.6. Sea µ una medida de Borel de probabilidad con soporte acotado
en C, Sµ y Nµ el operador multipiplicacion por z en P 2(µ) y en L2(µ), respectiva-
mente. Entonces, se tiene que Nµ siempre es normal y Sµ es subnormal y se verifica
que Nµ = men(Sµ), donde men(Sµ) denota la mınima extension normal de Sµ.
Ademas la medida µ esta determinada por la medida espectral del operador Nµ,
es decir,
dµ(z) = ⟨dEze0, e0⟩.
Ademas el soporte de µ es el espectro de Nµ. Es decir, σ(Nµ) = Supp(µ)
De los resultados anteriores se deduce que si D es subnormal y acotado, enton-
ces su mınima extension normal admite una representacion matricial, unitariamente
semejante a Nµ, que viene dada por
N =
D X
0 Y
,
verificandose σ(N) = Supp(µ).
24
1.2 Teorıa de polinomios ortogonales, matrices infinitas y operadores
1.2.3. Matrices de Hessenberg asociadas a matrices HDP
Muchas demostraciones de resultados que aparecen en el ambito de los polinomios
ortogonales no requieren la existencia de una medida y son en realidad consecuencias
de propiedades algebraicas.
Dada una matriz HDP M = (cij)∞i,j=0, el producto interior definido por M en P[z]
hace que este espacio sea pre-Hilbert y denotaremos por P 2(M) el espacio de Hilbert
obtenido como su complecion. Aplicando Gram-Schmidt a zn para n = 0, 1, 2, . . . ,
obtenemos una sucesion de polinomios ortonormales asociada a M , Pn(z)∞n=0, que
es unica suponiendo grado(Pn) = n y coeficiente conductor de Pn(z) positivo. Pode-
mos definir tambien el operador multiplicacion por z en el espacio de Hilbert P 2(M)
y obtener la matriz D que representa este operador con respecto al anterior SPON .
Esta matriz se denominara matriz de Hessenberg asociada a M .
En [GT93] y [Tor87] se prueba el siguiente resultado que relaciona las matrices
M y D.
Proposicion 1.2.7. La matriz HDP M y su matriz de Hessenberg asociada D estan
relacionadas mediante las siguientes formulas
D = T ∗S(T ∗)−1 = T−1M ′(T ∗)−1, (1.2)
donde se denota por M ′ la matriz obtenida al eliminar la primera columna de la
matriz M . Sean Mn y M ′n las secciones n- esimas de M y M ′ respectivamente. T
denota la matriz infinita cuya seccion n-esima es el factor triangular inferior Tn, en
la descomposicion de Cholesky Mn = TnT∗n y S la conocida matriz del shift-right.
Observacion 1.2.8. Los productos de matrices anteriores estan bien definidos pues-
to que las matrices infinitas T, T ∗, (T ∗)−1, T−1 son triangulares y D y S definen
operadores acotados en ℓ2(N0). En la demostracion de este resultado la matriz de
Hessenberg superior D se obtiene a partir de la matriz M, de una manera puramente
25
PRELIMINARES
algebraica por secciones mediante la identidad
Dn = T−1n M ′
n(T∗n)
−1. (1.3)
La sucesion de matrices Dn es consistente en el sentido de que Dn es submatriz
principal de Dn+1, con n ∈ N, en el mismo sentido lo son Mn, Tn y T−1n . Ademas se
prueba que D tiene subdiagonal estrictamente positiva y que el polinomio monico
Pn(z) viene determinado por Pn(z) = |Inz −M−1n M ′
n|, para cada n = 1, 2, . . ..
Por otro lado, se prueba que dada la matriz infinita M = (cij)∞i,j=0 HDP y la
matriz de Hessenberg D construida por el procedimiento anterior, se cumple que
cij = ⟨Dine0, D
jne0⟩, 0 ≤ i, j ≤ n− 1, (1.4)
siendo et0 = (1, 0, 0, 0, . . . , 0) ∈ ℓ2(N0).
Destacamos tambien que de la factorizacion de Cholesky Mn = TnT∗n se despren-
de que (T ∗n)
−1 es la matriz de cambio de base de Pn(z)n−1n=0 a znn−1
n=0 para todo n.
El Problema de los Momentos acotado asociado a una cierta matriz hermi-
tiana definida positiva M = (cij)∞i,j=0, trata de responder cuando podemos asegurar
que existe una medida de Borel µ con soporte acotado en el plano complejo tal que
M es la matriz de momentos asociada a dicha medida, es decir, que para todo i, j ≥ 0
cij =
∫zizjdµ.
Observacion 1.2.9. Si existe la medida µ, es unica puesto que el problema acotado
siempre es determinado (Atzmon (1975)[Atz75] y Tomeo(2004) [Tom04]).
Es bien conocido que en los casos de medidas con soporte en R o con soporte en
la circunferencia unidad, basta con que la matriz M sea definida positiva para que
exista una medida cuya matriz de momentos co8incida conM . En el contexto general
26
1.2 Teorıa de polinomios ortogonales, matrices infinitas y operadores
no es cierto. Un ejemplo sin medida. Consideremos la matriz HDP M = (cij)∞i,j=0
tal que cij = mın(i, j) + 1, es decir
M =
1 1 1 1 . . .
1 2 2 2 . . .
1 2 3 3 . . .
1 2 3 4 . . .
......
......
. . .
.
Se prueba trivialmente por induccion que |Mn| = 1, n = 1, 2, . . .. La descomposicion
de Cholesky en este caso es sencilla, vamos a efectuarla para las submatrices 4 × 4
por razones de espacio
1 1 1 1
1 2 2 2
1 2 3 3
1 2 3 4
=
1 0 0 0
1 1 0 0
1 1 1 0
1 1 1 1
1 1 1 1
0 1 1 1
0 0 1 1
0 0 0 1
.
Por otro lado, tenemos
T−14 =
1 0 0 0
−1 1 0 0
0 −1 1 0
0 0 −1 1
y M ′
4 =
1 1 1 1
2 2 2 2
2 3 3 3
2 3 4 4
.
Por tanto,
1 0 0 0
1 0 0 0
0 1 0 0
0 0 1 0
=
1 0 0 0
−1 1 0 0
0 −1 1 0
0 0 −1 1
1 1 1 1
2 2 2 2
2 3 3 3
2 3 4 4
1 −1 0 0
0 1 −1 0
0 0 1 −1
0 0 0 1
.
27
PRELIMINARES
La matriz D en este caso es
D =
1 0 0 0 0 . . .
1 0 0 0 0 . . .
0 1 0 0 0 . . .
0 0 1 0 0 . . .
0 0 0 1 0 . . .
......
......
.... . .
.
La afirmacion de que la matriz M no es de momentos se prueba facilmente si obser-
vamos que la diagonal principal de M no verifica la desigualdad de Cauchy-Schwartz.
Si la matriz fuera de momentos existirıa un recinto Ω y una medida µ(z) tales que
cnn =
∫Ω
znzndµ(z) =
∫Ω
|z|2ndµ(z)
=
∫Ω
|z|n−1|z|n+1dµ(z) ≤
√∫Ω
(|z|n−1)2dµ(z)
∫Ω
(|z|n+1)2dµ(z)
=√cn−1,n−1
√cn+1,n+1.
Pero en este caso tenemos cn−1,n−1cn+1,n+1 = (n− 1)(n+ 1) = n2 − 1 < n2 = c2nn.
Por tanto, M no es una matriz de momentos, pero el producto interior definido
por M en el espacio de Hilbert P 2(M) y el operador definido por D tienen perfecto
sentido.
Las condiciones dadas en Torrano-Guadalupe [GT93] y Tomeo[Tom04] (2004) se
resumen en el teorema siguiente.
Teorema 1.2.10. Una matriz M infinita HDP , es una matriz de momentos para
el caso acotado, si y solo si, la matriz de Hessenberg infinita D a asociada a M es
acotada y define un operador subnormal en ℓ2(N0).
La medida µ, que es unica, esta determinada por la medida espectral del operador
normal N , mınima extension normal del operador D, que notaremos como men(D),
28
1.2 Teorıa de polinomios ortogonales, matrices infinitas y operadores
es decir
dµ(z) = ⟨dEze0, e0⟩.
Ademas, N = men(D). Es decir σ(N) = Supp(µ).
En [Atz75] se da una condicion necesaria y suficiente para que una matriz HDP
M sea una matriz de momentos y exista una medida de Borel positiva µ en el disco
unidad verificando algunas condiciones y en [GT93] se extiende este resultado en
el caso en que la matriz de Hessenberg D defina un operador acotado en ℓ2(N0),
demostrando que la subnormalidad de la matriz D es equivalente a que M sea de
momentos.
29
Capıtulo 2
MATRICES DE MOMENTOS DE
MEDIDAS AUTOSEMEJANTES
En este capıtulo presentaremos un teorema del punto fijo para matrices de mo-
mentos de medidas autosemejantes. Veremos que la propiedad de autosemejanza de
la medida invariante, µ, asociada a un SFI de semejanzas contractivas en el plano
complejo con probabilidades, se traduce en una ecuacion matricial que verifica la
matriz de momentos de la medida. De esta relacion obtenemos a su vez la expresion
del comportamiento recurrente de los momentos cij(µ) que generaliza el caso real
[Ma96]. Ademas nos va a permitir definir un algoritmo iterativo definido sobre un
espacio muy amplio de matrices que aproxima la matriz de momentos de la medida
µ y determinar su velocidad de convergencia.
A lo largo de este capıtulo vamos a considerar que los SFI con probabilidades
Φ = φ1, φ2, . . . , φk ; p1, p2, . . . , pk con ps > 0 para s = 1, 2, . . . , k yk∑
s=1
ps = 1,
estaran formados por semejanzas contractivas en el plano complejo, de la forma
φs(z) = αsz + βs con |αs| < 1, para s = 1, 2, · · · , k.
31
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES
2.1. Transformaciones de matrices de momentos
por semejanzas
Para obtener el resultado central de este capıtulo, utilizaremos los resultados
siguientes de E. Torrano [Tor87] que establecen la forma de obtener la matriz de
momentos de la medida inducida por una transformacion de semejanza en el plano
complejo, conocida la matriz de momentos de la medida inicial.
Proposicion 2.1.1. Sea µ una medida con soporte en el plano complejo C y sea Mn
la seccion de orden n de su matriz de momentos. Sea f(z) = αz + β una semejanza
en C. Consideramos la medida imagen de µ por f , µf = µf−1. Entonces la seccion
de orden n de la matriz de momentos M f de µf viene dada por
M fn = A⋆
f,n Mn Af,n, siendo Af,n = (aij)ni,j=1 =
(j − 1
i− 1
)αi−1βj−i si j ≥ i
0 si j < i,
(2.1)
Las siguientes propiedades derivadas de las expresiones matriciales anteriores son
inmediatas y se pueden encontrar en [Tor87].
Proposicion 2.1.2. En las condiciones de la proposicion anterior, se verifican las
siguientes propiedades:
i) Af,n = Aαz,nAz+β,n.
ii) Aαz+β,nAγz+δ,n = Aαγz+βγ+δ,n.
iii) A−1αz+β,n = A z
α− β
α,n.
iv) |M fn | = |α|n(n−1)|Mn|.
Notese que, como consecuencia de la ultima propiedad, la matriz M es HDP si y
solo si M f es HDP.
32
2.1 Transformaciones de matrices de momentos por semejanzas
Observacion 2.1.3. A partir de la expresion (2.1), obtenemos la siguiente matriz
infinita Af
Af =
(00
)α0β0
(10
)α0β1
(20
)α0β2
(30
)α0β3 . . .
0(11
)α1β0
(21
)α1β1
(31
)α1β2 . . .
0 0(22
)α2β0
(32
)α2β1 . . .
0 0 0(33
)α3β0 . . .
......
......
. . .
La relacion matricial (2.1), se puede extender claramente a matrices infinitas
esto es M f = A⋆fMAf . Ademas, esta expresion se puede interpretar como un cambio
de base en el espacio de los polinomios P [z], donde M f es la matriz de Gram del
producto escalar respecto de la base 1, f(z), (f(z))2, (f(z))3, . . . .
Ejemplo 2.1.4. Consideremos la medida de Lebesgue normalizada sobre la circun-
ferencia de modo que c00 = 1.
cjk =1
2π
∫ π
−π
[eiθ]j[e−iθ]kdθ =1
2π
∫ π
−π
ei(j−k)θdθ = δjk.
Como vimos en el Ejemplo 1.2.3 la matriz de momentos es la matriz identidad, que
es una matriz de Toeplitz.
Si trasladamos la medida mediante f(z) = z + 1, esto es, α = 1 y β = 1, obten-
dremos la medida de Lebesgue normalizada en la circunferencia unidad centrada en
el elemento (1, 0). Aplicando la Proposicion 2.1.1, la matriz de momentos pasa a ser
la llamada matriz de Pascal. Por ejemplo para n = 5 tendremos que M f5 sera
1 0 0 0 0
1 1 0 0 0
1 2 1 0 0
1 3 3 1 0
1 4 6 4 1
1 0 0 0 0
0 1 0 0 0
0 0 1 0 0
0 0 0 1 0
0 0 0 0 1
1 1 1 1 1
0 1 2 3 4
0 0 1 3 6
0 0 0 1 4
0 0 0 0 1
=
1 1 1 1 1
1 2 3 4 5
1 3 6 10 15
1 4 10 20 35
1 5 15 35 70
que obviamente no es un matriz de Toeplitz.
33
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES
2.2. Matrices de momentos y formulas de recu-
rrencia
El resultado siguiente nos permite obtener formulas de recurrencia para los mo-
mentos de las medidas autosemejantes en el plano complejo que generaliza la dada
por G. Mantica para el caso real [Ma96]. En el capıtulo 1 seccion 1.1.2, se introdujeron
las medidas autosemejantes asociadas a SFI con probabilidades, y el espacio metrico
(MP (X), dH ) de las medidas de probabilidad Borel con la metrica de Hutchinson.
Como ya hemos dicho, a lo largo de este capıtulo vamos a considerar el SFI con
probabilidades, formado por semejanzas contractivas
Φ = φ1, φ2, . . . , φk; p1, p2, . . . pk.
Teorema 2.2.1. Sea µ la medida invariante asociada al SFI con probabilidades
Φ = φ1, φ2, . . . , φk; p1, p2, . . . pk,
formados por semejanzas contractivas φs(z) = αsz + βs, para cada s = 1, 2, . . . , k.
Entonces, las secciones Mn de la matriz de momentos de µ satisface la siguiente
relacion matricial
Mn =k∑
s=1
psMφsn ,
donde Mφsn es la seccion de orden n de la matriz de momentos de la medida imagen
de µ bajo la semejanza φs. Ademas,
cij =1
1−k∑
s=1
psαisαs
j
i,j∑m=0,l=0(m,l) =(i,j)
(i
m
)(j
l
)( k∑s=1
psβi−ms βs
j−lαms αs
l
)cml. (2.2)
Demostracion. Utilizando la Proposicion 2.1.1, para cada s = 1, 2, . . . , k, podemos
obtener la seccion n-esima de la matriz de momentos de la medida imagen µφs a
partir de las matrices Aφs,n, que por simplicidad denotaremos por As,n,
Mφsn = A⋆
s,n Mn As,n, donde As,n = (ai,j)ni,j=1 =
(j − 1
i− 1
)αi−1βj−i j ≥ i
0 j < i,
34
2.2 Matrices de momentos y formulas de recurrencia
Ahora, usando la siguiente propiedad de las medidas autosemejantes (ver por
ejemplo [Fal97] y [Ma96]),
∫X
fdµ =k∑
s=1
ps
∫X
f φs =k∑
s=1
ps
∫X
f φsdµ, (2.3)
conseguimos expresar la matriz de momentos de µ en terminos de las matrices de
momentos de las medidas inducidas por los elementos del SFI Φ y por ello en terminos
congruentes con ella misma
Mn =k∑
s=1
psMφsn =
k∑s=1
psA⋆s,n Mn As,n.
De esta formula obtenemos la formula de recurrencia para los momentos cij,
cij =k∑
s=1
ps
i,j∑m=0,l=0
(i
m
)(j
l
)βi−ms βs
j−lαms αs
lcml
=1
1−k∑
s=1
psαisαs
j
i,j∑m=0,l=0(m,l)=(i,j)
(i
m
)(j
l
)( k∑s=1
psβi−ms βs
j−lαms αs
l
)cml.
Ejemplo 2.2.2. Si consideramos el SFI con probabilidades
Φ = φ1(z) = z/2−1/2, φ2(z) = z/2+1/2, φ3(z) = z/2+√3i/2; p1 = p2 = p3 = 1/3
obtenemos el triangulo Sierpinski con base el intervalo [−1, 1] y la medida autose-
mejante asociada a Φ
Figura 2.1: Triangulo de Sierpinski
35
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES
La formula recurrente para sus momentos sera
cij =4
9
i,j∑m=0,l=0(m,l)=(i,j)
(i
m
)(j
l
)1
2i+j
[(−1)i−m+j−l + 1 +
√3i−m+j−l
]cml.
2.2.1. Caso real y la convolucion infinita de Bernoulli
En el caso real la matriz de momentos es una matriz de Hankel y obviamente
cij = c0,i+j = Si+j, esto nos permite recuperar la formula de recurrencia para el caso
real
Sn =1
1−∑k
s=1 psαns
k∑s=1
ps
n−1∑j=0
(n
j
)βn−js αj
sSj, (2.4)
o analogamente
Sn =1
1−∑k
s=1 psαns
n−1∑j=0
(n
j
)( k∑s=1
psβn−js αj
s
)Sj. (2.5)
Si consideramos que todas las semejanzas tienen la misma razon r, la formula
anterior queda
Sn =1
1− rn
n−1∑j=0
(n
j
)( k∑s=1
psβn−js
)rjSj. (2.6)
Este es el caso de la convolucion infinita de Bernoulli donde µr es la medi-
da invariante (Teorema 1.1.18) para el operador de Markov asociado al sistema de
semejanzas contractivas con probabilidades
Φr =
φ1(x) = rx+ β1, φ2(x) = rx+ β2; p1 = p2 =
1
2
con r ∈ (0, 1).
Si β1 = r−1 y β2 = 1− r, se tiene la convolucion infinita de Bernoulli en el intervalo
[−1, 1]. Cuando β1 = 0 y β2 = 1 − r, se tiene en [0, 1]. Como vimos en el primer
capıtulo, esta medida tiene como soporte el conjunto autosemejante asociado al SFI
anterior. De esta forma, si r ∈ (0,1
2) el soporte sera un conjunto de Cantor de razon
r, contenido en el intervalo [−1, 1] y por tanto, la medida µr sera singular. Cuando
r =1
2, µr es la media de Lebesgue normalizada en [−1, 1] asociada a los polinomios
36
2.2 Matrices de momentos y formulas de recurrencia
de Legendre.
La convolucion infinita de Bernoulli (ver trabajos de P. Erdos [Erd39], A. Garsia
[Gar63] y B. Jessen y A. Wintner [JW35] ) ha sido estudiada desde 1935 y todavıa
quedan muchas cuestiones sin resolver. Una de estas cuestiones es saber cuando
la medida µr es absolutamente continua o singular. Erdos [Erd40] y Salem [Sal44]
probaron que si r es el inverso de cierto tipo de numeros algebraicos, los numeros de
Pisot-Vajayaraghvan, µr es singular. Un ejemplo de este tipo es el caso del inverso de
la razon aurea. A finales del siglo pasado, se han vuelto a retomar estas cuestiones y
se han publicado numerosos resultados que se derivan del caracter autosemejante de
esta medida [EST03, Fis95, GW93, Hu97, Ma96]. En 1996, B. Solomyak [PS96, Sol98]
probo que para1
2< r < 1 la convolucion infinita de Bernoulli µr es absolutamente
continua casi en todo punto.
Segun la seccion anterior, la relacion entre las secciones de las matrices de mo-
mentos de µ y las de las medidas inducidas por φ1 y φ2 seran
Mφ1n = A⋆
1,n Mn A1n, con A1,n = (aij)ni,j=1 =
(j − 1
i− 1
)ri−1(r − 1)j−i si j ≥ i
0 si j < i,
Mφ2n = A⋆
2,n Mn A2,n, con A2,n = (aij)ni,j=1 =
(j − 1
i− 1
)ri−1(1− r)j−i si j ≥ i
0 si j < i,
(2.7)
En este caso las dos matrices usadas para obtener la matriz de momentos de la
medida imagen por las dos semejanzas del SFI son muy parecidas, porque los radios
de contraccion son iguales y los coeficientes de traslacion son opuestos, ası se tiene
37
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES
que A1,n(i, j) = (−1)i+jA2,n(i, j) si j ≥ i
A1,5 =
(00
)r0(r − 1)0
(10
)r0(r − 1)1
(20
)r0(r − 1)2
(30
)r0(r − 1)3
(40
)r0(r − 1)4
0(11
)r1(r − 1)0
(21
)r1(r − 1)1
(31
)r1(r − 1)2
(41
)r1(r − 1)3
0 0(22
)r2(r − 1)0
(32
)r2(r − 1)1
(42
)r2(r − 1)2
0 0 0(33
)r3(r − 1)0
(43
)r3(r − 1)1
0 0 0 0(44
)r4(r − 1)0
,
A2,5 =
(00
)r0(1− r)0
(10
)r0(1− r)1
(20
)r0(1− r)2
(30
)r0(1− r)3
(40
)r0(1− r)4
0(11
)r1(1− r)0
(21
)r1(1− r)1
(31
)r1(1− r)2
(41
)r1(1− r)3
0 0(22
)r2(1− r)0
(32
)r2(1− r)1
(42
)r2(1− r)2
0 0 0(33
)r3(r − 1)0
(43
)r3(1− r)1
0 0 0 0(44
)r4(1− r)0
.
A partir de la formula (2.6) obtenemos la formula de recurrencia para los momentos
de orden par de la convolucion infinita de Bernoulli µr
S2n =(1− r)2n
1− r2n
n−1∑j=0
(2n
2j
)(r
1− r
)2j
S2j, n = 1, 2, 3, . . . ,
siendo S0 = 1; y los momentos de orden impar son nulos por la simetrıa. Si ademas
r es el inverso de la razon aurea, r =
√5− 1
2y se verifica que
r
1− r=
1
r.
Sustituyendo en la formula anterior tenemos
S2n =(r2)2n
1− r2n
n−1∑j=0
(2n
2j
)(S2j
r2j
), n = 1, 2, 3, . . . ,
Ejemplo 2.2.3. En el caso de la convolucion infinita de Bernoulli cuando r =1
3, µr
es la medida uniforme sobre el conjunto ternario de Cantor en el intervalo [−1, 1].
La expresion de la formula de recurrencia de los momentos es
S2n =22n
32n − 1
n−1∑j=0
(2n
2j
)(S2j
22j
), n = 1, 2, 3, . . . ,
y nos permite obtener la matriz de momentos de orden n.
En este caso, para n = 5 tenemos,
38
2.2 Matrices de momentos y formulas de recurrencia
M5 =
1 0 12
0 720
0 12
0 720
0
12
0 720
0 205728
0 720
0 205728
0
720
0 205728
0 10 24142 640
y las matrices A2,5 y A∗2,5
A2,5 =
1 0 0 0 0
23
13
0 0 0
49
49
19
0 0
827
49
29
127
0
1681
3281
827
881
181
, A∗
2,5 =
1 23
49
827
1681
0 13
49
49
3281
0 0 19
29
827
0 0 0 127
881
0 0 0 0 181
Verificandose que M5 =1
2Mφ1
5 +1
2Mφ2
5 .
Usando la formula recurrente para los momentos vista en el Teorema 2.2.1, cal-
culamos los momentos de la medida invariante para el sistema Φ y obtenemos
s0 = 1, s1 = 0, s2 =1
2, s3 = 0, s4 =
7
20, s5 = 0, s6 =
205
728, s7 = 0, s8 =
10241
42640.
Utilizando la conocida expresion para obtener los polinomios monicos a partir de la
matriz de momentos, obtenemos los primeros polinomios monicos de la medida de
39
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES
Cantor.
x,
x2 − 1
2,
x3 − 7
10x,
x4 − 97
91x2 +
333
1820,
x5 − 1785
1517x3 +
143833
552188x,
x6 − 189964505
112825966x4 +
7410073867
9251729212x2 − 156207248595
1683814716584,
x7 − 4548711144551
2534028699430x5 +
6972489245973139
7481466332197132x3 − 4855955749246420947
39876215550610713560x,
xK1,0 K0,5 0 0,5 1,0
K1,0
K0,5
0,5
1,0
Si asignamos diferentes probabilidades a cada semejanza en el SFI del ejemplo
anterior obtenemos una convolucion infinita de medidas con pesos. Para r =1
3y
probabilidades2
3,1
3obtenemos una medida no simetrica en un conjunto de Cantor
contenido en el intervalo [−1, 1]. Las matrices A1,n y A2,n son las mismas que antes,
40
2.2 Matrices de momentos y formulas de recurrencia
y tenemos en este caso,
Mφ1
5 = A⋆1,5M5A1,5
=
1 −79
5381
−18293159
75 139142 155
−79
5381
−18293159
75 139142 155
−15 233 30530 961 359
5381
−18293159
75 139142 155
−15 233 30530 961 359
559 966 7091207 493 001
−18293159
75 139142 155
−15 233 30530 961 359
559 966 7091207 493 001
− 5236 263 395 78311 878 108 650 837
75 139142 155
−15 233 30530 961 359
559 966 7091207 493 001
− 5236 263 395 78311 878 108 650 837
9240 140 043 317 73721 915 110 460 794 265
,
Mφ2
5 = A⋆2,5M5A2,5
=
1 59
2981
8233159
29 299142 155
59
2981
8233159
29 299142 155
5319 75530 961 359
2981
8233159
29 299142 155
5319 75530 961 359
178 630 6371207 493 001
8233159
29 299142 155
5319 75530 961 359
178 630 6371207 493 001
1544 687 605 50111 878 108 650 837
29 299142 155
5319 75530 961 359
178 630 6371207 493 001
1544 687 605 50111 878 108 650 837
2541 691 310 236 29721 915 110 460 794 265
,
y
M5 =
1 −13
59
− 35117
7391755
−13
59
− 35117
7391755
− 34 495127 413
59
− 35117
7391755
− 34 495127 413
593 7651656 369
− 35117
7391755
− 34 495127 413
593 7651656 369
−1360 743 6655431 233 951
7391755
− 34 495127 413
593 7651656 369
−1360 743 6655431 233 951
1068 026 794 5373340 208 879 865
.
Verificandose ahora que M5 =2
3Mφ1
5 +1
3Mφ2
5 .
Ejemplo 2.2.4. La medida normalizada Lebesgue en [−1, 1] es la convolucion infi-
nita de Bernoulli para r =1
2con probabilidades p1 =
1
2, p2 =
1
2. Para esta medida
es bien conocida la matriz de momentos y la seccion de orden 5 sera
41
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES
Mφ1
5 =
1 0 13
0 15
0 13
0 15
0
13
0 15
0 17
0 15
0 17
0
15
0 17
0 19
.
En este caso las matrices A1,5 y A⋆1,5 seran
A1,5 =
1 0 0 0 0
12
12
0 0 0
14
12
14
0 0
18
38
38
18
0
116
14
38
14
116
y A⋆
1,5 =
1 12
14
18
116
0 12
12
38
14
0 0 14
38
38
0 0 0 18
14
0 0 0 0 116
.
Luego se verifica que M5 =1
2Mφ1
5 +1
2Mφ2
5 . Notese que por la simetrıa se tiene que
Mφ1n (i, j) = (−1)i+jMφ2
n (i, j).
2.2.2. Funcion generatriz exponencial de momentos
La formula de recurrencia (2.5) para los momentos de la medida autosemejante
en el caso de soporte real que vimos en la seccion anterior es equivalente a
Sn =k∑
s=1
ps
n∑j=0
(n
j
)βn−js αj
sSj. (2.8)
La funcion exponencial generatriz de estos momentos (egf) F satisface
F (x) =k∑
s=1
psF (αsx) e(βsx).
En el caso de que las razones de semejanza sean iguales αs = α, se tiene
F (x) = F (αx)k∑
s=1
pse(βsx).
42
2.2 Matrices de momentos y formulas de recurrencia
Si ademas, las probabilidades son iguales
F (x) =1
kF (αx)
k∑s=1
e(βsx).
Iterando en esta expresion, se obtiene
F (x) =∞∏j=0
(1
k
k∑s=1
e(βsαj)x
).
En este caso y para dos semejanzas homogeneas, podemos expresar en terminos
de cosenos hiperbolicos la expresion anterior teniendo en cuenta que:
eβ2αkx + eβ1αkx
2= e
(β2+β1)αkx
2
e(β2−β1)α
kx2 + e
(β1−β2)αkx
2
2
= e(β2+β1)α
kx2 cosh
((β2 − β1)α
kx
2
) .
Ası el producto infinito queda
F (x) =∞∏k=0
e(β2+β1)α
kx2 cosh
((β2 − β1)α
kx
2
)=
∞∏k=0
e(β2+β1)α
kx2
∞∏k=0
cosh
((β2 − β1)α
kx
2
)= e
(β2+β1)x2(1−α)
∞∏k=0
cosh
((β2 − β1)α
kx
2
).
En el caso de que la convolucion infinita de Bernoulli este en [0, 1], tenemos que
0 < α = r < 1, β1 = 0, β2 = 1 − r y las dos probabilidades iguales a1
2la funcion
generatriz, sera
F (x) = ex2
∞∏k=0
cosh
((1− r)rkx
2
).
Si r =1
2, se obtiene la medida de Lebesgue en [0, 1], por lo que la formula anterior
para este valor de r, coincide con el inverso de la funcion generatriz exponencial de
los numeros de Bernoulli,
F (x) =∞∏k=1
(1 + e
1
2kx
2
)=
ex − 1
x.
43
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES
2.3. Algoritmo iterativo para matrices de momen-
tos de medidas autosemejantes
En esta seccion vamos a desarrollar un metodo iterativo para aproximar la ma-
triz de momentos de una medida autosemejante para un SFI con probabilidades.
Este metodo se basa en los resultados sobre las transformaciones de las matrices de
momentos por semejanzas obtenidos en la seccion 2.2.
Pc denota el espacio de medidas de probabilidad con soporte compacto en el plano
complejo. Vamos a considerar el conjunto M formado por las matrices de momentos
de medidas en Pc. Denotamos por M(ν) ∈ M la matriz de momentos de la medida
ν ∈ Pc.
Definicion 2.3.1. Sea el SFI con probabilidades
Φ = φ1, φ2, . . . , φk; p1, p2, . . . .pk,
formado por semejanzas contractivas. Se define la transformacion TΦ : M → M de la
forma
TΦ(M(ν)) =k∑
s=1
psA⋆sM(ν)As,
donde, por simplicidad, denotamos por As la matriz Aφs dada en la Proposicion
2.1.1, para la semejanza φs(z).
Observacion 2.3.2. Notese que la transformacion TΦ esta bien definida, puesto que
para cada s, la matriz Mφs(ν) = A⋆sM(ν)As es la matriz de momentos de la medida
inducida ν φ−1s como la combinacion lineal convexa de medidas de probabilidad con
soporte compacto es una medida de probabilidad esta en Pc.
Teorema 2.3.3. Sea Φ un SFI con probabilidades y sea µ la medida invariante
asociada. Consideramos la transformacion T nΦ definida en 2.3.1. Entonces, para cada
M(ν) ∈ M se tiene que la sucesion de matrices T nΦ (M(ν)) converge elemento a
44
2.3 Algoritmo para matrices de momentos de medidas autosemejantes
elemento a la matriz de momentos M(µ), siendo T nΦ la n-esima composicion de TΦ
consigo misma.
Demostracion. Como ya vimos en el capıtulo 1, la medida invariante µ asociada
al SFI con probabilidades Φ es la medida invariante para el operador de Markov
definido en el espacio Pc por
T (ν) =k∑
s=1
psν φ−1s .
Este operador es una contraccion en el espacio metrico completo Pc con la metrica
de Hutchinson [Hut81], lo que asegura la convergencia debil de las medidas T n(ν)
para cada ν ∈ Pc a µ, que es el punto fijo de T.
Pc → Pc → Pc → · · · Pc → Pc
ν → T (ν) → T 2(ν) → · · · T n(ν) → µ
M(ν) → TΦ(M(ν)) → T 2Φ (M(ν)) → · · · T n
Φ (M(ν)) → M(µ)
La convergencia debil de medidas asegura la convergencia de los momentos, por lo
que el lımite de los momentos cij(Tn(ν)) de las medidas T n(ν) sera cij(µ). Por tanto
el proceso iterativo definido por el operador de Markov para aproximar la medida µ,
se transforma en un proceso iterativo paralelo definido matricialmente.
Si T (ν) = ν1, entonces TΦ(M(ν)) = M(ν1) y como T n(ν) converge debilmente a µ,
se tiene que T nΦ (M(ν)) −→ M(µ) elemento a elemento.
Los siguientes ejemplos muestran la eficiencia del algoritmo para calcular los
momentos de la medida invariante.
Ejemplo 2.3.4. Sea µ la medida de Lebesgue normalizada en el intervalo [−1, 1].
Esta es una medida autosemejante asociada al SFI con probabilidades dado por
Φ = φ1 = 1/2x− 1/2, φ2 = 1/2x+ 1/2; p1 = p2 = 1/2.
45
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES
La seccion de orden seis de la correspondiente transformacion TΦ viene dada por
TΦ(M(ν)) =1
2
1 0 0 0 0 0
12
12
0 0 0 0
14
12
14
0 0 0
18
38
38
18
0 0
116
14
38
14
116
0
132
532
516
516
532
132
M(ν)
1 12
14
18
116
132
0 12
12
38
14
532
0 0 14
38
38
516
0 0 0 18
14
516
0 0 0 0 116
532
0 0 0 0 0 132
+1
2
1 0 0 0 0 0
−12
12
0 0 0 0
14
−12
14
0 0 0
−18
38
−38
18
0 0
116
−14
38
−14
116
0
− 132
532
− 516
516
− 532
132
M(ν)
1 −12
14
−18
116
− 132
0 12
−12
38
−14
532
0 0 14
−38
38
− 516
0 0 0 18
−14
516
0 0 0 0 116
− 532
0 0 0 0 0 132
.
Despues de 20 iteraciones de TΦ comenzando con la matriz identidad, que es la
matriz de momentos correspondiente a la medida de Lebesgue en la circunferencia
unidad, tenemos
T 20Φ
1 0 0 0 0 0
0 1 0 0 0 0
0 0 1 0 0 0
0 0 0 1 0 0
0 0 0 0 1 0
0 0 0 0 0 1
=
46
2.3 Algoritmo para matrices de momentos de medidas autosemejantes
1,0 0,0 0,3333333333 0,0 0,2000000000 0,0
0,0 0,3333333333 0,0 0,2000000000 0,0 0,1428571429
0,3333333333 0,0 0,2000000000 0,0 0,1428571429 0,0
0,0 0,2000000000 0,0 0,1428571429 0,0 0,1111111111
0,2000000000 0,0 0,1428571429 0,0 0,1111111111 0,0
0,0 0,1428571429 0,0 0,1111111111 0,0 0,09090909091
.
Esta matriz aproxima (con diez dıgitos de precision) a la seccion de orden seis de la
bien conocida matriz de momentos de la medida de Lebesgue.
Ejemplo 2.3.5. La medida de Cantor µ1/3 en el intervalo [−1, 1] es autosemejante
para el SFI con probabilidades Φ = φ1 =13x−2/3, φ2 = 1/3x+2/3; p1 = p2 = 1/2
y coincide con la convolucion infinita de Bernoulli para r = 13(ver seccion 2.2.1).
Como vimos en el Ejemplo 2.2.3, la seccion de orden seis de la matriz de momentos
es de esta forma obtenemos la seccion de orden cinco
M5,µ1/3=
1 0 12
0 720
0 12
0 720
0
12
0 720
0 205728
0 720
0 205728
0
720
0 205728
0 1024142640
,
y la seccion de orden cinco correspondiente a la transformacion TΦ sera
TΦ(M(ν)) =1
2
1 0 0 0 0
23
13
0 0 0
49
49
19
0 0
827
49
29
127
0
1681
3281
827
881
181
M(ν)
1 23
49
827
1681
0 13
49
49
3281
0 0 19
29
827
0 0 0 127
881
0 0 0 0 181
+
47
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES
1
2
1 0 0 0 0
−23
13
0 0 0
49
−49
19
0 0
− 827
49
−29
127
0
1681
−3281
827
− 881
181
M(ν)
1 −23
49
− 827
1681
0 13
−49
49
−3281
0 0 19
−29
827
0 0 0 127
− 881
0 0 0 0 181
.
Si comenzamos de nuevo con la matriz identidad despues de veinte iteraciones de
TΦ, se tiene
T 20Φ
1 0 0 0 0 0
0 1 0 0 0 0
0 0 1 0 0 0
0 0 0 1 0 0
0 0 0 0 1 0
0 0 0 0 0 1
=
1,0 0,0 0,5000000000 0,0 0,3500000000 0,0
0,0 0,5000000000 0,0 0,3500000000 0,0 0,2815934066
0,5000000000 0,0 0,3500000000 0,0 0,2815934066 0,0
0,0 0,3500000000 0,0 0,2815934066 0,0 0,2401735460
0,3500000000 0,0 0,2815934066 0,0 0,2401735460 0,0
0,0 0,2815934066 0,0 0,2401735460 0,0 0,2113091906
,
que es una aproximacion con diez dıgitos de precision de la matriz de momentos
(seccion de orden seis) de la medida de Cantor.
48
2.4 Teorema del punto fijo para matrices de momentos de medidasautosemejantes en D
2.4. Teorema del punto fijo para matrices de mo-
mentos de medidas autosemejantes en D
En la seccion anterior hemos obtenido una convergencia elemento a elemento de
las matrices de momentos asociadas al operador de Markov para un SFI de seme-
janzas con probabilidades, a partir de la convergencia debil de dichas medidas. Para
establecer un resultado de convergencia de matrices mas fuerte, necesitaremos una
norma. El problema es que si la medida invariante asociada no tiene su soporte conte-
nido en la bola unidad, los momentos se disparan a infinito. Por ello en esta seccion
vamos a establecer un resultado para la norma del supremo, cuando la matriz de
momentos de la medida invariante es acotada, es decir, cuando la medida tiene su
soporte contenido en la bola unidad. En la siguiente seccion se definira una norma y
se establecera el resultado general.
Denotaremos por M∞ el espacio vectorial complejo de las matrices acotadas con
la norma del supremo, esto es, M = (mij)∞i,j=0 ∈ M∞ si ∥M∥sup = sup
i,j|mij| <
∞. Es facil demostrar que (M∞, ∥ .∥sup) es un espacio metrico completo, pues la
demostracion es analoga a la de (l∞, ∥.∥sup). Consideramos el subconjunto M1 de
M∞ cuyo primer elemento es igual a uno,
M1 =M = (mij)
∞i,j=0 ∈ M∞ tal que m00 = 1
.
(M1, ∥.∥sup) es un espacio metrico completo dado que M1 es un subconjunto
cerrado de ( M∞, ∥ .∥sup), de hecho es un subespacio afın de M∞.
Vamos a ver que el operador TΦ definido en 2.3.1 sobre el conjunto de matrices
de momentos de medidas de probabilidad, es un operador que se puede definir en
(M1, ∥.∥sup) de forma que todo el espacio M1 se convierte en cuenca de atraccion del
punto fijo que, como vimos es la matriz de momentos de la medida autosemejante
asociada a Φ.
Veamos primero un resultado previo, para el que hay que tener en cuenta la
49
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES
siguiente observacion.
Observacion 2.4.1. Sea φ : D → D una semejanza contractiva. Si φ(z) = αz + β,
el disco unidad se transforma en un disco incluido en D, centrado en β y de radio
|α|, como se muestra en la figura.
Esto implica que |α|+ |β| ≤ 1 y por lo tanto |β| ≤ 1. Ademas, se verifica que |α| < 1
por ser φ contractiva.
Teorema 2.4.2. Sea φ(z) = αz + β una semejanza con |α| < 1 y |α|+ |β| < 1. Sea
Aφ la matriz asociada definida en la Proposicion 2.1.1.
Entonces la aplicacion Tφ : (M1, ∥.∥sup) → ( M1, ∥.∥sup) definida por
Tφ(M) = A⋆φMAφ, (2.9)
es una aplicacion contractiva con razon de contraccion |α|+|β| si α = 0 y es constante
si α = 0.
Demostracion. Sean M = (mij)∞i,j=0 ∈ M1 y M ′ =
(m′
ij
)∞i,j=0
∈ M1. Para ver que Tφ
es contractiva, consideramos la matriz C = (cij)∞i,j=0 = Tφ(M)−Tφ(M
′). Recordando
que Aφ = (aij)∞i,j=0 es triangular superior con aij =
(ji
)αi−1βj−i si i ≤ j, se tiene que
C = Tφ(M)− Tφ(M′) = A⋆
φMAφ − A⋆φM
′Aφ = A⋆φ(M −M ′)Aφ = (cij)
∞i,j=0.
50
2.4 Teorema del punto fijo para matrices de momentos de medidasautosemejantes en D
En particular, para c00 se tiene que c00 = (1, 0, 0..)t(M −M ′)(1, 0, 0..) = 0 ya que
m00 −m′00 = 1− 1 = 0.
Para el resto de terminos (i, j) = (0, 0) tenemos
cij =
i,j∑k=0,l=0
(k,l)=(0,0)
(i
k
)(j
l
)βi−kβ
j−lαkαl(mkl −m′
kl)
de donde
|cij| ≤i,j∑
k=0,l=0(k,l)=(0,0)
(i
k
)(j
l
)|β|i−k
∣∣β∣∣j−l |α|k |α|l |mkl −m′kl|
≤i,j∑
k=0,l=0(k,l)=(0,0)
(i
k
)(j
l
)|β|i+j−k−l |α|k+l sup
k,l|mkl −m′
kl|
= supk,l
|mkl −m′kl|
i,j∑k=0,l=0
(k,l)=(0,0)
(i
k
)(j
l
)|β|i+j−k−l |α|k+l .
Por tanto,
∥Tφ(M)− Tφ(M′)∥sup = sup
ij|cij|
≤ ∥M −M ′∥sup sup(i,j)=(0,0)
i,j∑
k=0,l=0(k,l)=(0,0)
(i
k
)(j
l
)|β|i+j−k−l |α|k+l
= ∥M −M ′∥sup sup
(i,j)=(0,0)
(|α|+ |β|)i+j − |β|i+j
.
Estudiando los casos:
1. Si |α| = 0 el anterior supremo es cero y por tanto la aplicacion es constante.
2. Si |α| = 0 y |β| = 0 tenemos que ∥Tφ(M)− Tφ(M′)∥sup ≤ ∥M −M ′∥sup |α|.
3. Si |α| = 0 , |β| = 0 y |α|+ |β| < 1 tenemos,
∥Tφ(M)− Tφ(M′)∥sup ≤ ∥M −M ′∥sup (|α|+ |β|). (2.10)
51
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES
Por tanto, Tφ es una contraccion en (M1, ∥.∥sup) con razon (|α|+ |β|), si α = 0 y es
constante si α = 0.
Para acabar, hay que probar que la transformacion Tφ esta bien definida, es decir
que si M ∈ M1 se tiene que Tφ(M) ∈ M1. Por un lado, es claro que el primer
termino (0, 0) de Tφ(M) es 1. Por otro lado, de forma analoga a como se ha obtenido
(2.10), se tiene que
∥Tφ(M)∥sup ≤ ∥M∥sup .
La siguiente definicion es analoga a la Definicion 2.3.1, pero se define ahora la
transformacion TΦ en el espacio metrico M1.
Definicion 2.4.3. Se considera un SFI de semejanzas con probabilidades
Φ = φ1, φ2, . . . , φk; p1, p2, . . . pk,
de forma que cada semejanza φs(z) = αsz+βs verifica que |αs| < 1 y |αs|+ |βs| < 1,
para cada s ∈ 1, 2, . . . , k.
Se define la transformacion TΦ : M1 → M1 de la forma
TΦ(M) =k∑
s=1
psA⋆sMAs, (2.11)
donde As es la matriz asociada a la semejanza φs definida en la Proposicion 2.1.1.
Observacion 2.4.4. La transformacion TΦ esta bien definida. Veamos que
TΦ(M) =k∑
s=1
psTφs(M) ∈ M1.
1. Si llamamos C = (cij)∞i,j=0 = TΦ(M), entonces c00 =
k∑s=1
ps = 1.
2. La matriz C es acotada con la norma del supremo por ser combinacion lineal
convexa finita de matrices acotadas con la norma del supremo.
52
2.5 Teorema del punto fijo para matrices de momentos de medidasautosemejantes
Es obvio que cualquier combinacion lineal convexa de operadores contractivos es
contractivo y como consecuencia de ello tenemos el siguiente resultado.
Teorema 2.4.5. Consideramos la transformacion TΦ : (M1, ∥.∥sup) → (M1, ∥.∥sup)
asociado al SFI con probabilidades
Φ = φ1, φ2, . . . , φk; p1, p2, . . . pk
como en la Definicion 2.4.3.
Entonces TΦ es una aplicacion contractiva que tiene como punto fijo la matriz de
momentos M(µ) de la medida autosemejante determinada por Φ.
Demostracion. Sean M = (mij)∞i,j=0 ∈ M1 y M ′ =
(m′
ij
)∞i,j=0
∈ M1, entonces
∥TΦ(M)− TΦ(M′)∥sup ≤
k∑s=1
ps ∥Tφs(M)− Tφs(M′)∥sup
≤k∑
s=1
ps ∥M −M ′∥sup (|αs|+ |βs|)
≤ ∥M −M ′∥supk∑
s=1
ps sups(|αs|+ |βs|)
≤ ∥M −M ′∥sup sups(|αs|+ |βs|)
Por tanto, tenemos una aplicacion contractiva en el espacio metrico completo
(M1, ∥·∥sup).
2.5. Teorema del punto fijo para matrices de mo-
mentos de medidas autosemejantes
Como hemos visto en la seccion anterior, cuando las razones de las semejanzas de
un SFI verifican las propiedades del Teorema 2.4.5 de la seccion anterior, el soporte
de la medida autosemejante esta dentro de la bola unidad, y la matriz de momentos
53
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES
es acotada con la norma del supremo. En otros casos, la norma del supremo no
es suficiente para garantizar la contractividad del operador TΦ definido por (2.11),
ya que si la medida invariante asociada a Φ tiene parte de su soporte fuera de D,
los momentos de la medida no estan acotados. En caso de existir alguna semejanza
φs(x) = αsx+ βs de Φ, verificando |αs|+ |βs| ≥ 1, podemos trasladar el problema a
la bola unidad cerrada. En esta seccion definiremos otro espacio de matrices y una
norma adecuada que nos permitira trasladar el problema a la bola unidad cerrada y
obtener los resultados de contractividad obtenidos en el Teorema 2.4.5 de la seccion
anterior en el caso general.
Lema 2.5.1. Sean f(z) y g(z) semejanzas contractivas, entonces f g f−1(z) es
una semejanza contractiva con la misma razon que g(z).
Demostracion. Sean f(z) = γz + δ y g(z) = αz + β, entonces
f g f−1(z) = f g(zγ− δ
γ) = f(α(
z
γ− δ
γ) + β)
= γ((αz
γ− αδ
γ) + β) + δ
= αz − αδ + γβ + δ
Observacion 2.5.2. Si en el lema anterior tomamos δ = 0, entonces vemos que la
nueva semejanza contractiva, f g f−1(z) = αz + γβ, se diferencia de g(z) en el
termino independiente que aparece ahora multiplicado por la razon de f , γ.
Lema 2.5.3. Consideramos el SFI con probabilidades
Φ = φ1, φ2, . . . , φk; p1, p2, . . . pk.
Sean K y µΦ el conjunto autosemejante y la medida, respectivamente, invariantes
para Φ. Sea f una semejanza contractiva. Consideramos el SFI con probabilidades
54
2.5 Teorema del punto fijo para matrices de momentos de medidasautosemejantes
dado por
fΦf−1 = f φ1 f−1, f φ2 f−1, . . . , f φk f−1; p1, p2, . . . pk.
Entonces, el conjunto f(K) es el conjunto autosemejante invariante para fΦf−1 y
la medida autosemejante invariante para este SFI es la medida imagen por f de la
medida µΦ, es decir,
µfΦf−1 = µΦ f−1.
Demostracion. Es claro que f(K) es un conjunto compacto que satisface
k∪s=1
f φs f−1(f(K)) = f
(k∪
s=1
φs(K)
)= f(K),
ya que K es invariante para Φ. Por tanto f(K) es invariante para fΦf−1.
Utilizando que µΦ es invariante para Φ podemos comprobar de la misma forma
que µΦ f−1 es invariante para fΦf−1,
µΦ f−1 =
(k∑
s=1
psµΦ φ−1s
) f−1 =
k∑s=1
ps(µΦ f−1) f φ−1s f−1.
Por tanto, µΦ f−1 es invariante para fΦf−1.
2.5.1. Espacios metricos de matrices infinitas asociados a un
SFI
A lo largo de esta seccion consideraremos el SFI con probabilidades
Φ = φ1, φ2, . . . , φk; p1, p2, . . . pk,
formado por semejanzas contractivas. K y µΦ denotaran el conjunto y la medida,
respectivamente, autosemejantes para Φ.
Puesto que K es un conjunto compacto, podemos encontrar una semejanza con-
tractiva f(z) = αfz + βf de forma que f(K) este contenido en D. Para simplificar,
55
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES
tomaremos una homotecia f(z) = αfz, de forma que αf sea real y positivo, verifi-
cando ademas que
αf < mıns=1,2,...,k
1− |αs||βs|
·
De esta forma, las Observaciones 2.5.2 y 2.4.1 nos aseguran que la medida auto-
semejante asociada al SFI fΦf−1, tiene como soporte f(K) ⊂ D. En el caso en que
K ⊂ D, tomamos f como la aplicacion identidad.
Para cada semejanza f definimos un nuevo espacio metrico de matrices infinitas,
M∞,f = M tal que M ′ = A⋆fMAf ∈ M∞
con la norma,
||M ||f = ||M ′||sup para todo M ∈ M∞,f con M ′ = A⋆fMAf .
Veamos que este espacio es un espacio metrico completo.
Lema 2.5.4. En las condiciones de la definicion anterior (M∞,f , ∥.∥f ) es un espacio
metrico completo.
Demostracion. Para probar ||M ||f = ||M ′||sup es una norma en M∞,f , veamos pri-
mero que la aplicacion Tf : M∞,f −→ M∞ tal que Tf (M) = A⋆fMAf = M ′ es
biyectiva.
Sean M1 =(m1
ij
)∞i,j=0
y M2 =(m2
ij
)∞i,j=0
, tales que Tf (M1) = Tf (M2) entonces
tenemos que αi+jf m1
ij = αi+jf m2
ij para todo i, j, por tanto m1ij = m2
ij, por lo que
Tf es inyectiva. Ademas, como las matrices A⋆f y Af son invertibles con inversas
A⋆f−1 y Af−1 , respectivamente, tenemos que si Tf (M) = M ′ podemos escribir M =
A⋆f−1M ′Af−1 y por tanto Tf es biyectiva.
Que Tf sea biyectiva y el hecho de que (M∞, ∥ .∥sup) sea un espacio metrico
completo demuestran que se verifican las siguientes propiedades para M,M1,M2 ∈
M∞,f ,
56
2.5 Teorema del punto fijo para matrices de momentos de medidasautosemejantes
1. ∥M∥f > 0 salvo que M ≡ 0 en cuyo caso ∥M∥f = 0.
2. Si α ∈ C entonces ∥αM∥f = |α| ∥M∥f .
3. ∥M1 +M2∥f ≤ ∥M1∥f + ∥M2∥f .
4. (M∞,f , ∥.∥f ) es completo por serlo (M∞, ∥ .∥sup).
Definicion 2.5.5. Definimos el espacio
Mf = M ∈ M∞,f tal que M ′ = A⋆fMAf ∈ M1
y la transformacion TΦ : Mf → Mf dada por
TΦ(M) =k∑
s=1
psA⋆sMAs =
k∑s=1
psTφs(M),
como en (2.11).
Es claro que (Mf , ∥.∥f ) es un subespacio cerrado de (M∞,f , ∥·∥f ) y por lo tanto
completo, por lo que tenemos el siguiente teorema.
Teorema 2.5.6. Consideraremos el SFI con probabilidades
Φ = φ1, φ2, . . . , φk; p1, p2, . . . pk,
de semejanzas contractivas. Sean K y µΦ el conjunto y la medida, respectivamente,
autosemejantes para Φ. Sea f(z) = αfz una homotecia, de forma que αf sea real y
positivo, verificando ademas que
αf < mıns=1,2,...,k
1− |αs||βs|
.
Entonces, la transformacion TΦ : Mf → Mf definida en 2.5.5 es contractiva y
tiene la misma razon de contraccion que TfΦf−1 : M1 → M1 definida en 2.4.3.
Ademas, el unico punto fijo es la matriz de momentos de la medida autosemejante
µΦ.
57
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES
Demostracion. Primero, veamos que la transformacion TΦ esta bien definida.
Sea M ∈ Mf , entonces existe una matriz M ′ ∈ M1 tal que M = A∗f−1M ′Af−1 .
Para ver que TΦ(M) ∈ Mf , tenemos que probar que A∗fTΦ(M)Af ∈ M1,
A∗fTΦ(M)Af =A∗
fTΦ
(A∗
f−1M ′Af−1
)Af
=k∑
s=1
psA∗fA
∗sA
∗f−1M ′Af−1AsAf
=TfΦf−1(M ′) ∈ M1.
Veamos ahora que TΦ es contractiva con la misma razon de contraccion que TfΦf−1 .
Sean M1 y M2 ∈ Mf , entonces existen dos matrices M ′1 y M ′
2 ∈ M1 tal que
Mi = A∗f−1M ′
iAf−1 , (i = 1, 2), de aquı se tiene,
||TΦ(M1 −M2)||f =||A∗fTΦ(M1 −M2)Af ||sup
=||A∗fTΦ
(A∗
f−1(M ′1 −M ′
2)Af−1
)Af ||sup
=
∥∥∥∥∥k∑
s=1
psA∗fA
∗sA
∗f−1(M ′
1 −M ′2)Af−1AsAf
∥∥∥∥∥sup
=||TfΦf−1(M ′1 −M ′
2)||sup
≤ maxs=1,...,k
|αs|+ |αβs|||M ′1 −M ′
2||sup
= maxs=1,...,k
|αs|+ |αβs|||M1 −M2||f .
Luego TΦ es contractiva.
Probaremos ahora que su punto fijo es la matriz de momentos MΦ de la medida
autosemejante µΦ.
Por el Lema 2.5.3 se tiene que µfΦf−1 = µΦ f−1, por tanto MfΦf−1 = A∗fMΦAf
de donde MΦ = A∗f−1MfΦf−1Af−1 ∈ Mf , luego
A∗fTΦ(MΦ)Af =
k∑s=1
psA∗fA
∗sA
∗f−1MfΦf−1Af−1AsAf
=TfΦf−1(MfΦf−1)
=MfΦf−1 .
58
2.5 Teorema del punto fijo para matrices de momentos de medidasautosemejantes
Por lo que TΦ(MΦ) = A∗f−1MfΦf−1Af−1 = MΦ.
2.5.2. Aproximacion de la matriz de momentos y velocidad
de convergencia
El Teorema 2.5.6 nos da un algoritmo general para aproximar la matriz de mo-
mentos de una medida autosemejante asociada a un SFI, Φ, con probabilidades. Por
ser un algoritmo iterativo asociado a una transformacion contractiva, la velocidad
de convergencia depende de la razon de contraccion de TΦ que al ser igual que la de
TfΦf−1 parece que depende de f . Sin embargo, esto es ası.
Observacion 2.5.7. En las condiciones del Teorema 2.5.6, se tiene que que la veloci-
dad de convergencia del algoritmo es del orden de rn, siendo r la razon de contraccion
de SFI Φ, es decir, r = maxs=1,...,k
|αs|.
Sea ε > 0 tal que
ε < mıns=1,2,...,k
1− |αs||βs|
.
Para cada α < ε consideramos la homotecia f(z) = αz. Para esta f hemos visto en
el teorema anterior que
||TΦ(M1−M2)||f ≤ maxs=1,...,k
|αs|+|αβs|||M1−M2||f ≤ maxs=1,...,k
|αs|+|εβs|||M1−M2||f .
Por tanto la razon de contraccion es menor o igual que maxs=1,...,k
|αs|+ ε|βs| para todo
ε, y por tanto menor o igual que r.
Esto significa que la velocidad del algoritmo depende de la razon de contraccion
del SFI Φ.
Los siguientes ejemplos muestran la eficiencia del algoritmo para calcular los
momentos de una medida autosemejante asociada a un SFI con probabilidades.
Ejemplo 2.5.8. Sea µ la medida normalizada de Lebesgue en el intervalo [−1, 1].
Como ya hemos visto es una medida autosemejante para el SFI con probabilidades
59
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES
dado por Φ = φ1 = 1/2x − 1/2, φ2 = 1/2x + 1/2; p1 = p2 = 1/2. Como vimos en
el ejemplo 2.3.4, la seccion de orden seis de la matriz de momentos MΦ de la medida
µ se aproxima con diez dıgitos de precision por T 20Φ (Id).
Puesto que |α| + |β| = 1/2 + 1/2 = 1. Es suficiente tomar una homotecia f
que traslada el soporte en el interior del disco unidad. Por ejemplo si consideramos
f(x) =x
2, el SFI fΦf−1 es
fΦf−1 = f φ1 f−1 =x
2− 1
4, f φ2 f−1 =
x
2+
1
4; p1 = p2 = 1/2.
Usando los resultados del Teorema 2.5.6 tenemos ||TΦ(M)||f = ||TfΦf−1(A∗fMAf )||sup
y que la norma de TfΦf−1 esta acotada por la razon de contraccion α+1/2|β| = 3/4.
Por tanto, podemos asegurar que
||T 20Φ (I−M)||f ≤ (3/4)20||A∗
f (I−MΦ)Af ||sup ≈ 0,003171211939||A∗f (I−MΦ)Af ||sup.
Esto muestra que la cota obtenida no es muy ajustada a la realidad. Esta cota se
puede mejorar si tenemos en cuenta la observacion anterior. En este caso r = 1/2 y
se tiene
||T 20Φ (I−MΦ)||f ≤ 1
220||A∗
f (I−MΦ)Af ||sup ≈ 0,0000009536743164||A∗f (I−MΦ)Af ||sup.
Ejemplo 2.5.9. Sea T el triangulo de Sierpinski con base en el intervalo [−1, 1].
Consideramos la medida uniforme µ en T , es decir, la medida de Hausdorff log 3log 2
-
dimensional de T , que es la medidad autosemejante para el SFI con probabilidades
dado por
Φ = φ1(z) =z
2− 1
2, φ2(z) =
z
2+
1
2, φ3(z) =
z
2+
√3i
2; p1 = p2 = p3 =
1
3.
Entones,M(µ) es el punto fijo de la transformacion TΦ(M(ν)) =3∑
i=1
1
3A∗
φiM(ν)Aφi
.
Si iteramos la transformacion 20 veces comenzando con la matriz identidad, ob-
tenemos una aproximacion de la seccion de orden 5 de la matriz de momentos de la
60
2.6 Formulas explıcitas para los momentos
medida µ:
T20Φ (Id) =
1,0 −0,5773497187 i −0,3333326976 0,4123924989 i 0,6190467108
0,5773497187 i 0,7777771420 −0,7056492891 i −0,6825382899 0,8918905074 i
−0,3333326976 0,7056492891 i 0,9802453594 −1,129649109 i −1,376602322
−0,4123924989 i −0,6825382899 1,129649109 i 1,609688046 −2,130064540 i
0,6190467108 −0,8918905074 i −1,376602322 2,130064540 i 3,121089384
.
Podemos comparar este resultado con los momentos exactos dados por la formula
recurrente obtenida en (2.2.1):
1,0 −0,5773502693 i −0,3333333333 0,4123930495 i 0,6190476190
0,5773502693 i 0,7777777778 −0,7056503292 i −0,6825396825 0,8918923515 i
−0,3333333333 0,7056503292 i 0,9802469136 −1,129651479 i −1,376605792
−0,4123930495 i −0,6825396825 1,129651479 i 1,609691778 −2,130070359 i
0,6190476190 −0,8918923515 i −1,376605792 2,130070359 i 3,121098767
.
Como se puede observar en este caso la velocidad de aproximacion es mas lenta que
en el primer ejemplo. Sin embargo, la cota de la razon de contraccion obtenida en la
observacion anterior nos da una cota mas ajustada del error cometido. En este caso
se tiene que r = 1/2 para las secciones de orden cinco se tiene
||T 20Φ (Id5 −Mϕ,5)||f ≤ 1
220||A∗
f,5(I −MΦ)5Af,5||sup
≤ 1
220||A∗
f,5|| ||(I −MΦ)5|| ||Af,5||sup
≤ 3
220= 0,000002861022949,
lo que asegura los cinco dıgitos de precision que se observan en este ejemplo.
2.6. Formulas explıcitas para los momentos
Las relaciones de recurrencia que aparecen al estudiar los momentos de ciertas
medidas como convoluciones infinitas de Bernoulli, pueden expresarse en terminos
61
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES
de matrices triangulares. El desarrollo de esta seccion tiene por objeto describir
explıcitamente los momentos de estas medidas. En esta seccion encontramos una
formula para la inversa de una matriz triangular infinita en terminos de numeros
multinomicos y composiciones de un numero natural y utilizaremos esta expresion
para obtener una formula explıcita para los momentos de estas medidas.
2.6.1. Inversa de una matriz triangular inferior
Lema 2.6.1. Dada una matriz triangular de la forma
A =
1 0 0 0 . . .
a21 −1 0 0 . . .
a31 a32 −1 0 . . .
a41 a42 a43 −1 . . .
......
......
. . .
(2.12)
se tiene que su matriz inversa A−1 = C = (cij) esta definida por las siguientes
expresiones
c11 = 1
ci1 = ai1 + ai2a21 + ai3(a31 + a32a21) + · · ·+ ai,i−1(ai−1,1 + ai−1,2a21 + . . .
=∑
1 < α1< α2< . . . < αk< i
α1, . . . , αk ⊂ 2, . . . , i − 1
ai,αkaαk,αk−1
. . . aα1,1 para i > 1
cim = ai,m + ai,m+1am+1,m + ai,m+2(am+2,m + ..+ ai,i−1(ai−1,m + ai−1,2a2m + ..)
= −∑
m< α1< α2< . . . < αk< i
α1, . . . , αk ⊂ m + 1, . . . , i − 1
ai,αkaαk,αk−1
. . . aα1,m para i > m > 1
62
2.6 Formulas explıcitas para los momentos
Demostracion. Es conocido que C = A−1 es triangular inferior. Imponiendo AC = I
tenemos las relaciones,
c11 = 1, cii = −1 si i > 1,
ci1 =i−1∑j=1
aijcj1 si i > 1,
cim =i−1∑
j=m,m<i
aijcjm si i > m,
cim = 0, en otro caso.
Vamos a utilizar induccion completa sobre i.
Para i = 2 la formula se verifica de manera trivial puesto que el sumatorio se
extiende al conjunto vacıo y c21 = a21c11 = a21.
Si suponemos cierta la formula para todo α < i, ordenando el sumatorio de la
siguiente manera
∑α1,...,αk⊂2,...,i−1
ai,αkaαk,αk−1
. . . aα1,1 = ai,1 + ai,2∑
α1,..αk−1⊂∅
a2,1 + . . .
· · ·+ ai,αk
∑α1,...,αk−1⊂2,...,αk−1
aαk,αk−1. . . aα1,1 + . . .
· · ·+ ai,i−1
∑α1,...,αk−1⊂2,...,i−2
ai−1,αk−1. . . aα1,1.
Aplicando la hipotesis de induccion a los sumandos anteriores, obtenemos
∑α1,...,αk⊂2,...,i−1
ai,αkaαk,αk−1
. . . aα1,1
= ai,1c11 + ai,2c2,1 + ai,3c3,1 + · · ·+ ai,αkcαk,1 + · · ·+ ai,i−1ci−1,1
=i−1∑j=1
aijcj1 = ci,1 para i > 1.
Con una demostracion similar obtendrıamos la formula para cim.
63
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES
Lema 2.6.2. Sea
A =
b1 0 0 0 . . .
a21 b2 0 0 . . .
a31 a32 b3 0 . . .
a41 a42 a43 b4 . . .
......
......
. . .
,
una matriz triangular invertible, entonces su matriz inversa A−1 = C = (cij) viene
dada por las siguientes expresiones
c1,1 =1
b1,
ci1 =∑
1 < α1< α2< . . . < αk< i,
α1, . . . , αk ⊂ 2, . . . , i − 1
ai,αkaαk,αk−1
. . . aα1,1(−1)k+1
bibαkbαk−1
. . . bα1b1para i > 1,
cim =∑
m< α1< α2< . . . < αk< i
α1, . . . , αk ⊂ m + 1, . . . , i − 1
ai,αkaαk,αk−1
. . . aα1,m(−1)k
bibαkbαk−1
. . . bα1bmpara i > m > 1,
considerando tambien el conjunto vacıo en las sumas.
Demostracion. Podemos descomponer la matriz A como producto de una matriz
diagonal D por una triangular A′, a la que podemos aplicar el lema anterior. Ası,
tenemos A = DA′ con D = diagb1,−b2,−b3, . . . ,−bn y A′ = (a′i,j) con a′i,j =−ai,jbi
si i > j, a′1,1 = 1 y a′i,i = −1 si i > 1. De esta manera A−1 = (A′)−1D−1, verificandose
la formula de manera inmediata.
64
2.6 Formulas explıcitas para los momentos
Corolario 2.6.3. Sea
A =
(0
0
)0 0 0 . . . 0 . . .(
1
0
)b1 0 0 . . . 0 . . .(
2
0
) (2
1
)b2 0 . . . 0 . . .(
3
0
) (3
1
) (3
2
)b3 . . . 0 . . .
......
......
. . ....(
n
0
) (n
1
) (n
2
) (n
3
). . . bn . . .
......
......
.... . .
, (2.13)
una matriz triangular invertible, entonces su matriz inversa A−1 = C = (cij) viene
dada por las siguientes expresiones
c11 = 1,
Para i > 1, se tiene
ci1 =∑
0 < α1< α2< . . . < αk< i − 1
α1, . . . , αk ⊂ 1, . . . , i − 2
(i− 1
αk
)(αk
αk−1
). . .
(α1
0
)(−1)k+1
bi−1bαkbαk−1
. . . bα1
,
y para cada i > m > 1
cim =∑
m − 1 < α1< α2< . . . < αk< i − 1
α1, . . . , αk ⊂ m, . . . , i − 2
(i− 1
αk
)(αk
αk−1
). . .
(α1
m− 1
)(−1)k
bi−1bαkbαk−1
. . . bα1bm−1
.
Observacion 2.6.4. Desarrollando la expresion anterior, se tiene
ci1 =−1
bi−1
+1
bi−1
i−2∑j=1
(i− 1
j
)1
bj− 1
bi−1
i−2∑1=α1<α2
(i− 1
α2
)(α2
α1
)1
bα2bα1
+ . . .
· · ·+(i− 1
i− 2
)(i− 2
i− 3
). . .
(2
1
)(−1)i−1
bi−1bi−2 . . . b2b1·
65
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES
2.6.2. Expresiones de los momentos para la convolucion de
Bernoulli
Podemos reescribir las n primeras ecuaciones de la formula (2.6) de recurrencia
para los momentos de la convolucion infinita de Bernoulli µr en el intervalo [0, 1],
esto es para α = r, β1 = 0 y β2 = 1− rSn =
(1− r)n
2(1− rn)
n−1∑k=0
(n
k
)(r
1− r
)k
Sk
S0 = 1
(2.14)
como un producto matricial, AS = e1 siendo A = (aij) una matriz triangular inferior
dada por
aij =
(i− 1
j − 1
)(1− r)i−1
2(1− ri−1)
(r
1− r
)j−1
=
(i− 1
j − 1
)(1− r)i−j
2(1− ri−1)rj−1 para i > j,
S es el vector columna de los momentos de µr y e1 el primer elemento de la base
canonica de ℓ2,
1 0 0 . . . 0 . . .
(1−r)1
2(1−r1)
(10
) (r
1−r
)0 −1 0 . . . 0 . . .
(1−r)2
2(1−r2)
(20
) (r
1−r
)0 (1−r)2
2(1−r2)
(21
) (r
1−r
)1 −1 . . . 0 . . .
......
. . ....
(1−r)n
2(1−rn)
(n0
) (r
1−r
)0 (1−r)n
2(1−rn)
(n1
) (r
1−r
)1 · · · −1 · · ·...
......
. . .
S0
S1
S2
...
Sn
...
=
1
0
0
...
0
...
.
(2.15)
Para despejar vamos a aplicar los resultados de la seccion anterior para calcular
la matriz inversa de A. Para ello expresamos esta matriz de la forma A = D1TD2
siendo D1 = diag1, (1− r)i
2(1− ri), i = 1, . . . , n, D2 = diag
(r
1− r
)i
, i = 1, . . . , n y
T la matriz triangular inferior dada por tij =
(i− 1
j − 1
)si i > j > 1 y en la diagonal
t11 = 1 y tii = −2(1− ri)
risi i ∈ N.
66
2.6 Formulas explıcitas para los momentos
Teniendo en cuenta esta factorizacion, el sistema anterior D1TD2S = e1 se puede
transformar en TS ′ = D−11 e1 = e1 siendo S
′ = D2S, quedando un sistema mas simple
1 0 0 . . . 0 · · ·(1
0
)−2(1− r1)
r0 . . . 0 · · ·(
2
0
) (2
1
)−2
(1− r2)
r2. . . 0 · · ·
......
.... . .
...(n
0
) (n
1
) (n
2
)· · · −2 (1−rn)
rn· · ·
......
......
. . .
S ′0
S ′1
S ′2
...
S ′n
...
=
1
0
0
...
0
...
.
(2.16)
A partir de esta expresion se obtiene de forma inmediata el siguiente resultado.
Teorema 2.6.5. La formula explıcita para los momentos de convoluciones infinitas
de Bernoulli en el intervalo [0, 1] viene dada por
Sn =(1− r)n
2(1− rn)
∑0 < α1< α2< . . . < αk< n
α1, . . . αk ⊂ 1, . . . n − 1
(n
n− αk, αk − αk−1, . . . , α2 − α1, α1
) k∏j=1
rαj
2(1− rαj),
donde la notacion
(n
n− αk, αk − αk−1, . . . , α2 − α1, α1
)corresponde a los numeros
multinomicos.
Demostracion. Aplicamos el Corolario 2.6.3 para resolver el sistema (2.16) y teniendo
en cuenta que
Sn =
(r
1− r
)n
S ′n,
se tiene que
Sn =∑
0 < α1< α2< . . . < αk< n
α1, . . . αk ⊂ 1, . . . , n − 1
(n
αk
)(αk
αk−1
). . .
(α1
0
)(1− r)n
2(1− rn)
k∏j=1
rαj
2(1− rαj)
=(1− r)n
2(1− rn)
∑0 < α1< α2< . . . < αk< n
α1, . . . , αk ⊂ 1, . . . , n − 1
(n
n− αk, αk − αk−1, . . . , α2 − α1, α1
) k∏j=1
rαj
2(1− rαj)
67
MATRICES DE MOMENTOS DE MEDIDAS AUTOSEMEJANTES
A continuacion vemos como quedan los primeros momentos de la convolucion
infinita de Bernoulli en [0, 1], en funcion de la razon de semejanza r.
Ejemplo 2.6.6. Si n=4, la seccion 5 de la matriz A del sistema (2.15) sera
1 0 0 0 0
(1−r)1
2(1−r1)
(10
) (r
1−r
)0 −1 0 0 0
(1−r)2
2(1−r2)
(20
) (r
1−r
)0 (1−r)2
2(1−r2)
(21
) (r
1−r
)1 −1 0 0
(1−r)3
2(1−r3)
(30
) (r
1−r
)0 (1−r)3
2(1−r3)
(31
) (r
1−r
)1 (1−r)3
2(1−r3)
(32
) (r
1−r
)2 −1 0
(1−r)4
2(1−r4)
(40
) (r
1−r
)0 (1−r)4
2(1−r4)
(41
) (r
1−r
)1 (1−r)4
2(1−r4)
(42
) (r
1−r
)2 (1−r)4
2(1−r4)
(43
) (r
1−r
)3 −1
Por otro lado, su inversa sera
1 0 0 0 0
12
−1 0 0 0
12(r+1)
− rr+1
−1 0 0
−14r−2r+1
−32
r(r2+r+1)(r+1)
−32
r2
r2+r+1−1 0
−(r3−r2−1)2(r3+r2+r+1)(r+1)
(r5−r3−r2−2)r(r3+r2+r+1)(r2+r+1)(r+1)
−3r2
(r3+r2+r+1)(r2+r+1)−2r3
r3+r2+r+1−1
Por lo que la primera columna sera el vector de momentos (S0, S1, S2, S3, S4).
La formula explıcita anterior se puede expresar en terminos de composiciones de
un numero natural n. Recordemos (ver por ejemplo [Mer03]) que una k-composicion
de n es una solucion de la ecuacion a1 + a2 + · · · + ak = n, donde ai ∈ N para cada
i = 1, 2, . . . , k.
Dada una k-composicion de n, a1 + a2 + · · · + ak = n se puede construir un
(k− 1)-subconjunto de 1, 2, 3, .., n− 1 de la siguiente forma a1, a1 + a2, a1 + a2 +
a3, ...., a1 + a2 + a3 + ..+ ak−1.
Por ejemplo, la 1-composicion de 5 que es 5 = 5, da lugar al conjunto vacıo que
es un 0-subconjunto de 1, 2, 3, 4. La 2-composicion 3 + 2 = 5 de 5 dara lugar al
68
2.6 Formulas explıcitas para los momentos
conjunto 3, que es un 1-subconjunto de 1, 2, 3, 4. La 3-composicion 1+1+3 = 5
de 5 da lugar a 1, 2, que es un 2 subconjunto de 1, 2, 3, 4. La 4-composicion
2 + 1 + 1 + 1 = 5 de 5 da lugar a 2, 3, 4, que es un 3-subconjunto de 1, 2, 3, 4.
La 5-composicion de 5 que es 1 + 1 + 1 + 1 + 1 = 5 da lugar a 1, 2, 3, 4, que es un
4-subconjunto de 1, 2, 3, 4.
Corolario 2.6.7. La formula explıcita para los momentos de la convolucion infinita
de Bernoulli en el intervalo [0, 1] se puede expresar de la forma siguiente en terminos
de composiciones de n,
Sn =
(1− r
r
)n ∑ak + · · · + a2 + a1 = n
ai ≥ 1; ∀i = 1, . . . , k; ∀k ≥ 1
(n
ak, . . . , a2, a1
) k∏j=1
ra1+a2+···+aj
2(1− ra1+a2+···+aj)
Demostracion. Teniendo en cuenta el cambio
ak+1 = n− (αk − 1)
ak = αk − αk−1
......
a1 = α1 − 1
tenemos que la (k+1)−composicion de n, a1 + a2 + a3 + ..+ ak + ak+1 = n, verifica
αk − 1 = a1 + a2+ a3 + . . .+ ak = n− ak+1
......
α2 − 1 = a1 + a2
α1 − 1 = a1
Sn =
(1− r )n
2(1− rn)
∑ak+1 + · · · + a2 + a1 = n
ai ≥ 1; ∀i = 1, . . . , k; ∀k ≥ 1
(n
ak, . . . , a2, a1
) k∏j=1
ra1+a2+···+aj
2(1− ra1+a2+···+aj)
=
(1− r
r
)n ∑ak+1 + · · · + a2 + a1 = n
ai ≥ 1; ∀i = 1, . . . , k + 1; ∀k ≥ 1
(n
ak, . . . , a2, a1
) k+1∏j=1
ra1+a2+···+aj
2(1− ra1+a2+···+aj)
69
Capıtulo 3
MATRICES DE HESSENBERG Y
MEDIDAS AUTOSEMEJANTES
El estudio de la matriz de Hessenberg asociada a una medida autosemejante
podrıa ayudarnos a entender la estructura de esta medida. En el capıtulo anterior,
se muestra como las propiedades geometricas de una medida autosemejante para
un SFI pueden ser trasladadas a transformaciones de matrices de momentos. Ahora
estudiaremos la transformacion por una semejanza de una matriz de Hessenberg.
Mas concretamente, en este capıtulo se introduce un metodo para calcular la ma-
triz de Hessenberg de una suma de medidas partiendo de las matrices de Hessenberg
de las medidas componentes. Nuestro metodo extiende al plano complejo, las tecni-
cas espectrales usadas por G. Mantica [Ma00] que en el caso real calcula la matriz
de Jacobi asociada a una suma de medidas en funcion de las matrices de Jacobi de
las medidas dadas. Ver tambien [EGK92, Gau82].
Aplicaremos este metodo para aproximar la matriz de Hessenberg asociada a
una medida autosemejante y lo compararemos con la matriz de Hessenberg que se
obtiene a partir de la matriz de momentos del teorema de punto fijo [Teorema 2.5.6]
utilizando las formulas (1.3).
71
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES
Finalmente, presentaremos algunos ejemplos para medidas autosemejantes clasi-
cas.
3.1. Transformaciones de matrices de Hessenberg
por semejanzas
En el capıtulo anterior se utilizaba la expresion de la matriz de momentos de la
medida inducida µf por una semejanza f(z) para aproximar la matriz de momentos
de una medida autosemejante. Parece natural que nos preguntemos por la expresion
de la matriz de Hessenberg Df correspondiente.
En esta primera seccion se presentara la expresion de matriz de Hessenberg Df
y algunas propiedades de invarianza.
Recordemos que, como se expuso en el capıtulo 1, la matriz M asociada a la
matriz D no tiene que ser necesariamente una matriz de momentos. Los resultados
de esta seccion son validos para el caso de matrices M HDP, aunque no sean de
momentos y por tanto no haya una medida asociada. Esto se debe a que la matriz
de Hessenberg D asociada a M se puede calcular con tecnicas de algebra lineal y sin
herramientas de teorıa de la medida.
El siguiente resultado que necesitaremos a lo largo de este capıtulo, puede encon-
trarse en [Tor87] aunque damos aquı una demostracion mas breve.
Proposicion 3.1.1. Sea f(z) = αz + β con α = |α|eiθ una semejanza en el plano
complejo. Sea M una matriz HDP y sea M f la matriz definida en Proposicion 2.1.1.
Entonces la matriz Df asociada a M f tiene como seccion de orden n la matriz
72
3.1 Transformaciones de matrices de Hessenberg por semejanzas
Dfn =
αd00 + β α2
|α|d01α3
|α|2d02α4
|α|3d03 . . . αn
|α|n−1d0n−1
|α|d10 αd11 + β α2
|α|d12α3
|α|2d13 . . . αn−1
|α|n−2d1n−1
0 |α|d21 αd22 + β α2
|α|d23 . . . αn−2
|α|n−3d2n−1
0 0 |α|d32 αd33 + β . . . αn−3
|α|n−4d3n−1
......
......
. . ....
0 0 0 0 . . . αdn−1n−1 + β
. (3.1)
Esto es
Dfn = α U⋆
nDnUn + βIn,
con U = (δjk e(k−1)θi)∞j,k=0.
Demostracion. En el capıtulo anterior, en la Proposicion 2.1.2 se vio que si M es
una matriz HDP la matriz M f definida en (2.1) tambien es HDP. Como vimos en el
capıtulo 1, toda matriz HDP tiene una matriz de Hessenberg asociada. Denotaremos
por D y por Df las matrices de Hessenberg asociadas a M y a M f , respectivamente.
Si partimos de la descomposicion de Cholesky de M , M = TT ⋆, entonces se tiene
M f = A⋆fMAf = (A⋆
fT )(T⋆Af ), sin embargo, no se puede asegurar que A⋆
fT sea el
factor de Cholesky de M f , ya que la diagonal deberıa ser estrictamente positiva.
Notese que los elementos de la diagonal de las matrices (A⋆fT ) y (T ⋆Af ), son
diag(A⋆fT ) = (tiiα
i)∞i=0 y diag(T ⋆Af ) = (tiiαi)∞i=0.
La unica matriz U unitaria, tal que UU⋆ = U⋆U = I, cuyas secciones principales
sean tambien unitarias verificando
M fn = A⋆
f,nTnUnU⋆nT
⋆nAf,n,
de modo que la matriz T = A⋆fTU tenga diagonal real y positiva es la matriz diagonal
dada por
diag(U) = (ejiθ)∞j=0.
73
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES
Si ahora utilizamos las formulas D = T ⋆S(T ∗)−1 y Df = T ⋆S(T ∗)−1 vistas en el
capıtulo 1, tendremos
Df = T ⋆S(T ∗)−1 = U⋆T ⋆AfSA−1f (T ∗)−1U.
Utilizando que A−1f = Af−1 , se tiene
AfSAf−1 =
(10
)β1
(20
)β2
(30
)β3 . . .(
11
)α1
(21
)α1β1
(31
)α1β2 . . .
0(22
)α2
(32
)α2β1 . . .
0 0(33
)α3 . . .
......
.... . .
1 −(10
)βα
(20
)β2
α2 −(30
)β3
α3 . . .
0(11
)1α
−(21
)1α
βα
(31
)1α
β2
α2 . . .
0 0(22
)1α2 −
(32
)1α2
βα
. . .
0 0 0(33
)1α3 . . .
......
......
. . .
= αS + βI.
Sustituyendo en la expresion de Df tendremos que
Df = U⋆T ⋆AfSAf−1(T ∗)−1U = U⋆T ⋆(αS + Iβ)(T ∗)−1U
= α U⋆DU + βI.
Por lo que el resultado queda probado.
Observacion 3.1.2. Notese que Df es unitariamente equivalente a αD + Iβ.
A continuacion vamos a ver algunos ejemplos.
Ejemplo 3.1.3. En el ejemplo 2.1.4 hemos visto que la matriz de momentos de la
medida de Lebesgue normalizada en la circunferencia unidad centrada en (1, 0), se
obtenıa con la transformacion de la matriz identidad por la semejanza con α = 1 y
β = 1. En este caso se sabe que la matriz D asociada a la matriz identidad es el shift
right y aplicando la formula anterior tenemos que
D =
0 0 0 0 . . .
1 0 0 0 . . .
0 1 0 0 . . .
0 0 1 0 . . .
......
......
. . .
=⇒ Df =
1 0 0 0 . . .
1 1 0 0 . . .
0 1 1 0 . . .
0 0 1 1 . . .
......
......
. . .
.
74
3.1 Transformaciones de matrices de Hessenberg por semejanzas
Ejemplo 3.1.4. Sea S la matriz del shift right. La matriz D = S + S⋆ es la matriz
de Hessenberg asociada a los polinomios ortogonales de Tchebyschev de segunda
especie en [−2, 2]. La matriz que resulta de transformar D mediante f(z) = αz + β,
con α = eπ/4i, y β = i es
D =
0 1 0 0 . . .
1 0 1 0 . . .
0 1 0 1 . . .
0 0 1 0 . . .
......
......
. . .
=⇒ Df =
i i 0 0 0 . . .
1 i i 0 0 . . .
0 1 i i 0 . . .
0 0 1 i i . . .
0 0 0 1 i . . .
......
......
.... . .
.
Esta es una distribucion sobre una recta diferente del eje real y por tanto ya no es
una matriz tridiagonal de Jacobi.
3.1.1. Propiedades de invarianza
A continuacion vamos a analizar propiedades de la matriz de Hessenberg en el
caso de que la matriz M asociada sea HDP y no necesariamente de momentos.
Teorema 3.1.5. Sea D un operador acotado en ℓ2(N0) y f(z) = αz + β una trans-
formacion de semejanza. Entonces se cumplen las siguientes propiedades:
i) D es normal, si y solo si, Df es normal.
ii) D es hiponormal, si y solo si, Df es hiponormal.
iii) D es subnormal, si y solo si, Df es subnormal.
Demostracion. Hemos visto que Df = αU⋆DU+βI, de donde [Df ]⋆ = αU⋆D⋆U+βI
y se tiene
[Df ]⋆Df = (αU⋆D⋆U + βI)(αU⋆DU + βI)
= |α|2U⋆D⋆DU + αβU⋆DU + αβU⋆D⋆U + |β|2I. (3.2)
75
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES
Por otro lado
Df [Df ]⋆ = (αU⋆DU + βI)(αU⋆D⋆U + βI)
= |α|2U⋆DD⋆U + αβU⋆DU + αβU⋆D⋆U + |β|2I.
Luego se cumple que
[Df ]⋆Df −Df [Df ]⋆ = |α|2U⋆ (D⋆D −DD⋆)U.
Veamos ahora las tres propiedades.
i) Si D es normal, es decir D⋆D−DD⋆ = 0, entonces [Df ]⋆Df −Df [Df ]⋆ = 0, y
por tanto Df es normal. El recıproco es obvio.
ii) Si D es hiponormal, es decir D⋆D−DD⋆ ≥ 0, entonces [Df ]⋆Df−Df [Df ]⋆ ≥ 0,
y por tanto Df es hiponormal. El recıproco es inmediato.
iii) Recordemos que segun el Teorema 1.2.10 en el caso acotado, D es subnormal y
acotada si y solo si M es de momentos. Por tanto, si D es subnormal hay una
medida µ asociada, y en ese caso, Df es la matriz de Hessenberg asociada a la
medida imagen de µ por f , y por tanto es subnormal. El recıproco se prueba
en forma analoga, ya que f es invertible.
Observacion 3.1.6. No es cierto que se conserve la cuasinormalidad. Veamos un
ejemplo.
Sea S la matriz del shift right, que como sabemos es la matriz de Hessenberg aso-
ciada a la matriz identidad, que es la matriz de momentos de la medida de Lebesgue
normalizada en la circunferencia unidad. Sabemos que S⋆S = I, de ahı se deduce
que S es cuasinormal ya que S(S⋆S) = (S⋆S)S.
Sin embargo, si f(z) = z + 1, se tiene que Df = S + I, que es la matriz de
Hessenberg correspondiente a la matriz de Pascal, que no es cuasinormal.
76
3.2 Matriz de Hessenberg de una suma de medidas
Como D = S + I, tenemos D⋆ = S⋆ + I, de aquı tendremos que
D⋆D = (S⋆ + I)(S + I) = S⋆S + S⋆ + S + I = 2I + S⋆ + S.
Analogamente
DD⋆ = (S + I)(S⋆ + I) = SS⋆ + S⋆ + S + I.
Luego
D⋆D −DD⋆ = I − SS⋆.
Calculemos finalmente D(D⋆D)− (D⋆D)D,
(S + I) [2I + S⋆ + S]− [2I + S⋆ + S] (S + I)
= S [2I + S⋆ + S]− [2I + S⋆ + S]S
= SS⋆ − S⋆S = SS⋆ − I = 0.
Luego la cuasinormalidad no se conserva.
3.2. Matriz de Hessenberg de una suma de medi-
das
En esta seccion introducimos un metodo que calcula exactamente la matriz de
Hessenberg de una suma de medidas partiendo de las matrices de Hessenberg de las
medidas componentes. Este metodo extiende las tecnicas espectrales que G. Mantica
usa en [Ma00], para calcular la matriz de Jacobi asociada a una suma de medidas
partiendo de las matrices de Jacobi de cada una de las medidas componentes (ver
tambien [EGK92, Gau82]).
A lo largo de la seccion consideraremos una familia de medidas, µimi=1 todas
con soporte compacto Ωi ⊂ C y µi(Ωi) = 1. Sea µ la medida suma, i.e.,
dµ =m∑i=1
pidµi,
77
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES
dondem∑i=1
pi = 1 y pi ≥ 0 para cada i = 1, 2, . . .m.
Sean D(i)mi=1 las correspondientes matrices de Hessenberg y sea D = (djk)∞j,k=0
la matriz de Hessenberg asociada a µ. Daremos un procedimiento para calcular D
en terminos de las D(i)mi=1.
Senalemos en primer lugar que todas las matrices D(i) estan acotadas en ℓ2(N0),
por ser compacto el soporte de las correspondientes medidas. En segundo lugar,
que cada matriz D(i)mi=1 define un operador acotado y subnormal en ℓ2(N0), (ver
[Atz75], [GT93] y [Tom04]).
La subnormalidad y acotacion de estos operadores sera lo que nos permitira ex-
tender la tecnicas espectrales descritas en [Ma00].
Recordemos que dada una medida µ con soporte compacto y siendoD = (djk)∞j,k=0
la matriz de Hessenberg asociada, la sucesion de polinomios ortonormales asociada
verifica la formula (1.1) de recurrencia larga
zPn(z) =n+1∑k=0
dk,nPk(z), n ≥ 0,
con P0(z) = 1 cuando c00 = 1.
Observacion 3.2.1. La formula anterior tambien la escribiremos como
dn+1,nPn+1(z) = (z − dnn)Pn(z)−n−1∑k=0
dk,nPk(z), n ≥ 0, (3.3)
donde, para n = 0, la suma−1∑k=0
dk,0Pk(z) se considera igual a cero.
Una consecuencia inmediata del teorema de representacion espectral para opera-
dores normales y del calculo funcional (ver [Con91]), es el siguiente lema.
Lema 3.2.2. Sea N un operador normal acotado. Dada una sucesion de polinomios
que satisfacen la formula (3.3) de recurrencia larga. Entonces N satisface la identidad
dn+1,nPn+1(N) = (N − dnn)Pn(N)−n−1∑k=0
dk,nPk(N), n ≥ 0. (3.4)
78
3.2 Matriz de Hessenberg de una suma de medidas
Proposicion 3.2.3. Sea S un operador subnormal acotado definido en ℓ2. Dada una
sucesion de polinomios que satisfacen la formula (3.3) de recurrencia larga. Entonces
S satisface la identidad
dn+1,nPn+1(S) = (S − dnnI)Pn(S)−n−1∑k=0
dk,nPk(S), n ≥ 0. (3.5)
Demostracion. La idea de la prueba es usar la mınima extension normal del operador
subnormal S, N = men(S) [Con91]. Existe un espacio de Hilbert K, H ⊂ K, tal
que N : K → K y N |H = S. Podemos descomponer K = H⊕
H⊥, respecto de esta
suma directa el operador N = men(S) se puede escribir, (ver pag 129 de [Con91]),
como una matriz 2× 2
N =
S X
0 Y
;
el bloque 0 aparece debido a que N(H) ⊂ H y obviamente N |H= S. En consecuencia
tendremos que
N j =
Sj
0 Y j
, (3.6)
con el sımbolo indicamos resultados o valores que no son pertinentes para nuestro
objetivo. Al ser N normal, dada la identidad (3.4), se cumple que
dn+1,nPn+1
S X
0 Y
=
S X
0 Y
− dnn
I 0
0 I ′
Pn
S X
0 Y
−
n−1∑k=0
dk,nPk
S X
0 Y
.
En esta expresion I ′ : H⊥ → H⊥, es el operador identidad en el espacio complemen-
to ortogonal de H en K. Teniendo en cuenta (3.6) y desarrollando los respectivos
polinomios resulta dn+1,nPn+1(S)
0
=
S − dnnI
0
Pn(S)
0
−n−1∑k=0
dk,nPk(S)
0
.
79
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES
Efectuando el anterior producto matricial, sumando en el termino de la derecha,
resulta una identidad de operadores en cajas 2 × 2, si nos quedamos solo con el
resultado de la posicion (1, 1), tendremos
dn+1,nPn+1(S) = (S − dnnI)Pn(S)−n−1∑k=0
dk,nPk(S), (3.7)
que es lo que querıamos probar.
Definicion 3.2.4. Sea Pn(z)∞n=0 la SPON asociada a dµ =∑m
i=1 pidµi, y sea
D(i) la familia de matrices de Hessenberg correspondientes a las medidas µimi=1
dadas. Notaremos con
v(i)n = Pn(D(i))e0,
al correspondiente vector de ℓ2(N0).
Es claro que v(i)n ∈ ℓ2 ya que D(i) es acotada por ser el soporte compacto.
Proposicion 3.2.5. Sea µimi=1 una familia de medidas con soporte compacto en
C y dµ =∑m
i=1 pidµi la medida suma. Sea Pn∞n=0 la SPON y D = (djk)∞j,k=0
asociada a µ, y sean D(i)mi=1 las matrices de Hessenberg correspondientes a las
medidas µimi=1. Entonces se verifican las siguientes identidades
dn+1,nv(i)n+1 = [D(i) − dnnI]v
(i)n −
n−1∑k=0
dknv(i)k , n ≥ 0, i = 1, . . . ,m (3.8)
dkn =m∑i=1
pi ⟨D(i)v(i)n , v(i)k ⟩, k = 0, 1, 2, . . . , n, (3.9)
donde
v(i)n = Pn(D(i))e0, n ≥ 0, i = 1, . . . ,m y e0 = (1, 0, 0, . . . )T
son familias de vectores en ℓ2(N0).
Demostracion. Partimos de una familia de medidas µimi=1, necesariamente las ma-
trices de Hessenberg D(i) definen operadores acotados subnormales en ℓ2(N0). En
consecuencia todas ellas satisfacen la identidad (3.7). Basta ahora aplicar la identi-
dad (3.7) al vector e0 y aplicar la definicion de v(i)n para obtener (3.8).
80
3.2 Matriz de Hessenberg de una suma de medidas
La formula (3.9) se obtiene a partir de la formula (3.3) de recurrencia larga como
sigue. Multiplicamos, usando el producto interior asociado a la medida suma, por
Pk(z) a ambos lados de (3.3). Teniendo en cuenta que los polinomios Pn(z)∞n=0 son
ortonormales, se tiene que
⟨zPn(z), Pk(z)⟩µ =
∫Ω
Pk(z)zPn(z)dµ =
∫Ω
[n+1∑j=0
djnPj(z)
]Pk(z)dµ = dkn, (3.10)
donde Ω = Supp(µ).
Por otro lado si consideramos la funcion Pk(z)zPn(z), es obvio que para la mıni-
ma extension normal N (i) de D(i), por tratarse de operadores normales y ser dEµi
la medida espectral correspondiente, se cumplira por el teorema de representacion
espectral que [Pk(N
(i))]⋆ [
N (i)Pn(N(i))]=
∫σ(N(i))
Pk(z)zPn(z)dEµi. (3.11)
Utilizando la representacion matricial de la mınima extension normal
N (i) =
D(i) X(i)
0 Y (i)
,
sustituyendo en (3.11) y llamando Ωi = Supp(µi) = σ(N i), resulta la identidad
matricial
[Pk(D
(i))]⋆ [
D(i)Pn(D(i))]
=
∫σ(N(i))
Pk(z)zPn(z)dEµi
Aplicaremos esta identidad a e0 = (e0, 0), donde 0 es el vector nulo de (ℓ2)⊥
complemento ortogonal de ℓ2(N0). Multiplicando por e0 y teniendo en cuenta que
dµi = ⟨dEµie0, e0⟩ = ⟨dEµi
e0, e0⟩, se tiene
⟨[Pk(D
(i))]H [
D(i)Pn(D(i))]e0, e0⟩ = ⟨D(i)Pn(D
(i))e0, Pk(D(i))e0⟩
=
∫σ(N(i))
Pk(z)zPn(z)⟨dEµie0, e0⟩
=
∫σ(N(i))=Ωi
Pk(z)zPn(z)dµi
81
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES
Utilizando la definicion de los v(i)n , para todo i = 1, 2, . . . ,m se tiene
⟨D(i)v(i)n , v(i)k ⟩ = ⟨
[Pk(D
(i))]H [
D(i)Pn(D(i))]e0, e0⟩,
de donde
m∑i=1
pi ⟨D(i)v(i)n , v(i)k ⟩ =
m∑i=1
pi
∫Ωi
Pk(z)zPn(z)dµi
=
∫Ω
Pk(z)zPn(z)
[m∑i=1
pidµi
]= dkn.
Para disenar el algoritmo que nos permite obtener con exactitud la matriz D a
partir de las D(i)mi=1 generalizaremos los resultados que Mantica obtuvo en [Ma00]
para el caso real.
Proposicion 3.2.6. En las condiciones de la proposicion anterior, se verifica lo
siguiente,
d2n+1,n =m∑i=1
pi ⟨w(i)n+1, w
(i)n+1⟩,
donde
w(i)n+1 = dn+1,nv
(i)n+1, i = 1, 2, . . . ,m,
es una familia de vectores en ℓ2(N0).
Demostracion. Puesto que ⟨w(i)n+1, w
(i)n+1⟩ = d2n+1,n⟨v
(i)n+1, v
(i)n+1⟩, tenemos
m∑i=1
pi ⟨w(i)n+1, w
(i)n+1⟩ =
m∑i=1
pid2n+1,n⟨v
(i)n+1, v
(i)n+1⟩
= d2n+1,n
m∑i=1
pi⟨Pn+1(D(i))e0, Pn+1(D
(i))e0⟩
= d2n+1,n
∫Ω
|Pn+1(z)|2dµ = d2n+1,n.
82
3.2 Matriz de Hessenberg de una suma de medidas
La anterior proposicion nos servira para obtener dn+1,n, conociendo los w(i)n+1. A
continuacion, dado que v(i)n+1 = w
(i)n+1/dn+1,n, podemos determinar v
(i)n+1, i = 1, 2, . . . ,m.
De esta forma podemos definir el siguiente algoritmo.
Teorema 3.2.7. Sean µimi=1 medidas con soporte compacto y se la medida suma
µ. Consideramos la SPON Pn∞n=0 y la matriz de Hessenberg D asociada a µ y
D(i)mi=1 como antes. Se denota por v(i)0 = (1, 0, 0, . . . )T para cada i = 1, . . . ,m.
Entonces los elementos de la matriz D = (djk)∞j,k=0 asociada a µ pueden ser cal-
culados recursivamente partiendo de los elementos de las matrices D(i)mi=1 usando
las siguientes formulas para n = 0, 1, 2, . . .
dk,n =m∑i=1
pi⟨D(i)v(i)n , v(i)k ⟩, k = 0, 1, . . . , n (3.12)
w(i)n+1 =
[D(i) − dnnI
]v(i)n −
n−1∑k=0
dk,nv(i)k , i = 1, . . . ,m (3.13)
dn+1,n =
√√√√ m∑i=1
pi⟨w(i)n+1, w
(i)n+1⟩, (3.14)
v(i)n+1 =
w(i)n+1
dn+1,n
, i = 1, . . . ,m. (3.15)
Demostracion. Las expresiones (3.12), (3.13), (3.14) y (3.15) han sido probadas en
las proposiciones precedentes.
En lo que sigue describiremos como utilizarlas para calcular D = (dij)∞i,j=0 por
secciones.
Veamos como obtener (v(i)k mi=1nk=0, Dn+1) por induccion.
Para n = 0, conocemos (v(i)0 mi=1, D1):
v(i)0 = e0 para cada i = 1, . . . ,m, y
D1 = (d00) donde d00 =m∑i=1
pi⟨D(i)e0, e0⟩ =m∑i=1
pid(i)00
Supongamos conocido el valor de(
v(i)0 , v
(i)1 , . . . , v
(i)n
m
i=1, Dn+1
), i.e., esto es cono-
83
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES
cemos el valor de:
v(i)0 , v
(i)1 , . . . , v(i)n
m
i=1, Dn+1 =
d00 d01 . . . d0n
d10 d11 . . . d1n...
......
0 0 . . . dnn
.
Mostraremos como obtener(
v(i)0 , v
(i)1 , . . . , v
(i)n+1
m
i=1, Dn+2
)mediante un diagrama
de flechas, que define el algoritmo recursivo.
Dn+1 v(i)0 , v
(i)1 , . . . , v
(i)n
?
w(i)n+1
=[D(i) − dnnI
]v(i)n −
n−1∑k=0
dk,nv(i)k , i = 1, . . . ,m (3.13)
?
dn+1,n =
√√√√ m∑i=1
pi⟨w(i)n+1, w
(i)n+1⟩ (3.14)
?
v(i)n+1
=w
(i)n+1
dn+1,n
(3.15) v(i)0 , v
(i)1 , . . . , v
(i)n
@@
@@@R
dk,n+1 =
m∑i=1
pi⟨D(i)v(i)n+1, v
(i)k ⟩, k = 0, . . . , n+ 1 (3.12)
Se observa que hay formulas que pueden ser escritas en forma matricial.
Corolario 3.2.8. Llamemos V (i) a la matriz triangular superior infinita que tiene
por columnas los vectores v(i)0 , v
(i)1 , v
(i)2 , . . ., de ℓ2(N0), es decir V
(i) = (v(i)0 , v
(i)1 , v
(i)2 , . . .).
Entonces se cumple que
D =m∑i=1
pi [V(i)]⋆D(i)V (i).
84
3.2 Matriz de Hessenberg de una suma de medidas
Demostracion. Simplemente expresando matricialmente (3.12) se obtiene el resulta-
do.
Veamos una propiedad trivial de la matriz infinita triangular superior V (k).
Corolario 3.2.9. Se cumple que
m∑k=1
pk [V(k)]⋆V (k) = I.
Demostracion. Esto es consecuencia de la ortogonalidad de los Pk(z)∞k=0 respecto
de la medida∑m
k=1 pkdµk, ya que
v(k)n = Pn(D(k))e0
Obviamente ⟨Pi(z), Pj(z)⟩ = δij. Por el teorema de representacion espectral, al ser
dEµk la medida espectral correspondiente a la extension normal de D(k), resulta
inmediato que
⟨Pi(D(k))e0, Pj(D
(k))e0⟩ =∫Ω
Pi(z)Pj(z)⟨dEµke0, e0⟩.
Multiplicando ambos miembros por pk y sumando ahora desde k = 1 hasta k = m
tendremos que
m∑k=1
pk⟨v(k)i , v(k)j ⟩ =
∫Ω
Pi(z)Pj(z)
[m∑k=1
pkdµk
]= δij,
luego la tesis se cumple de inmediato.
Ejemplo 3.2.10. Consideremos dos medidas, la de Lebesgue sobre la circunferencia
unidad que es bien sabido que tiene como matriz de momentos M (1) = I, y la medida
de Lebesgue sobre la circunferencia de radio 1 centrada en el punto (1, 0), cuya matriz
de momentos es la matriz de Pascal, es decir, M (2) = (mij)∞i,j=0 con mij =
(i+ j
j
).
Para mayor simplicidad tomamos p1 = p2 = 1/2. Resultara que
M =1
2I +
1
2M (2).
85
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES
Sabemos que la matriz D(1) = S, es decir, el shift-right. Por otro lado por construc-
cion D(2) = S + I. La matriz D correspondiente a M , obtenida vıa descomposicion
de Cholesky, restringiendonos a 4× 4, tras hacer D4 = T−14 M ′
4(T∗4 )
−1, sera
D4 =
12
√5
100 −
√330330
√52
12
√1010
0
0 4√10
1012
7√660
660
0 0√66020
12
.
Comprobemos como llegamos a identico resultado a partir de D(1) y D(2), mediante
el algoritmo dado por el Teorema 3.2.7.
Tenemos que
d00 =1
2e0⟨Se0, e0⟩+
1
2⟨[S + I]e0, e0⟩ = 0 +
1
2=
1
2.
Trabajando por secciones, tendremos
w(1)1 =
0 0 0 0
1 0 0 0
0 1 0 0
0 0 1 0
− 1
2I4
1
0
0
0
=
−1/2
1
0
0
,
w(2)1 =
1 0 0 0
1 1 0 0
0 1 1 0
0 0 1 1
− 1
2I4
1
0
0
0
=
1/2
1
0
0
.
Por tanto
d1,0 =
√1
2(1
4+ 1) +
1
2(1
4+ 1) =
√5
2.
Asimismo,
v(1)1 =
2√5
5
−1/2
1
0
0
, v
(2)1 =
2√5
5
1/2
1
0
0
.
86
3.2 Matriz de Hessenberg de una suma de medidas
d0,1 =1
2⟨2√5
5
0 0 0 0
1 0 0 0
0 1 0 0
0 0 1 0
−1/2
1
0
0
,
1
0
0
0
⟩
+1
2⟨2√5
5
1 0 0 0
1 1 0 0
0 1 1 0
0 0 1 1
1/2
1
0
0
,
1
0
0
0
⟩
= 0 +
√5
10.
d1,1 =1
2⟨2√5
5
0 0 0 0
1 0 0 0
0 1 0 0
0 0 1 0
−1/2
1
0
0
,2√5
5
−1/2
1
0
0
⟩
+1
2⟨2√5
5
1 0 0 0
1 1 0 0
0 1 1 0
0 0 1 1
1/2
1
0
0
,2√5
5
1/2
1
0
0
⟩
=1
2(−2
5) +
1
2
7
5=
5
10=
1
2.
Ejemplo 3.2.11. Sea a ∈ R. Consideramos las distribuciones dµ1 =√1− (x− a)2dx
y dµ2 =√1− (x+ a)2dx correspondientes a los polinomios de Chebyshev de segun-
da clase sobre los intervalos [a − 1, a + 1] y [−a − 1,−a + 1], respectivamente. Sea
µ =1
2µ1 +
1
2µ2 la medida suma.
Las correspondientes matrices de Jacobi son
87
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES
D(1) =
a1
20 0 0 0
1
2a
1
20 0 0
01
2a
1
20 0
0 01
2a
1
20
0 0 01
2a
1
2
0 0 0 01
2a
, D(2) =
−a1
20 0 0 0
1
2−a
1
20 0 0
01
2−a
1
20 0
0 01
2−a
1
20
0 0 01
2−a
1
2
0 0 0 01
2−a
.
La seccion 5 de la tridiagonal de Jacobi de la suma resulta
0√4a2+12 0 0 0
√4a2+12 0
√16a2+1
2√4a2+1
0 0
0√16a2+1
2√4a2+1
0√256a6+80a4+44a2+12√16a2+1
√4a2+1
0
0 0√256a6+80a4+44a2+12√16a2+1
√4a2+1
0√16384a8+6144a6+896a4+100a2+12√16a2+1
√256a6+80a4+44a2+1
0 0 0√16384a8+6144a6+896a4+100a2+12√16a2+1
√256a6+80a4+44a2+1
0
.
Observamos que los soportes de las medidas iniciales son disjuntos si a > 1.
Cuando a = 0, tenemos los polinomios de Chebyshev sobre el intervalo [−1, 1] y
cuando 0 ≤ a < 1 tenemos una suma de medidas con soportes solapados.
3.3. Matriz de Hessenberg asociada a una medida
autosemejante
En esta seccion vamos a aplicar los resultados del Teorema 3.2.7 junto con la Pro-
posicion 3.1.1 para calcular la matriz de Hessenberg de una medida autosemejante.
Para ello vamos a considerar en toda la seccion un SFI con probabilidades
Φ = φ1, φ2, . . . , φk; p1, p2, . . . , pk,
88
3.3 Matriz de Hessenberg asociada a una medida autosemejante
de semejanzas contractivas φs(z) = αsz+ βs para s = 1, 2, . . . , k. Recordemos que la
medida µΦ invariante para este sistema verifica
µΦ =k∑
s=1
psµΦ φ−1s ,
por lo que se puede considerar como una suma de medidas.
Corolario 3.3.1. Consideramos el SFI con probabilidades
Φ = φ1, φ2, . . . , φk; p1, p2, . . . , pk,
de semejanzas contractivas φs(z) = αsz + βs para s = 1, 2, . . . , k. Sea µΦ la me-
dida autosemejante asociada y sea D(µ) la matriz de Hessenberg correspondiente.
Entonces se satisface la siguiente identidad
D(µ) =m∑s=1
ps [V(s)]⋆
[αs[U
(s)]⋆D(µ)U (s) + βsI]V (s),
donde las matrices U (s) son matrices diagonales tales que U (s) =(δnme
(n−1)θsi)∞n,m=1
,
siendo αs = |αs|eθsi.
Demostracion. Es consecuencia del Teorema 3.1.1 y del Corolario 3.5.2.
Definicion 3.3.2. Dado el SFI con probabilidades
Φ = φ1, φ2, . . . , φk; p1, p2, . . . , pk,
de semejanzas contractivas φs(z) = αsz+βs para s = 1, 2, . . . , k. Se define la siguiente
transformacion TΦ en el espacio de todas las matrices de Hessenberg asociadas a
medidas de probabilidad con soporte compacto en el plano complejo C como
TΦ(D(ν)) =k∑
s=1
ps [V(s)]⋆
[αs[U
(s)]⋆D(ν)U (s) + βsI]V (s),
donde U (s) y αs son como en el corolario anterior y V (s) como en el Corolario 3.5.2
para µs = µ φ−1s .
89
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES
Observacion 3.3.3. Observamos que la transformacion TΦ esta bien definida porque
para cada matriz de Hessenberg D(ν), asociada a la medida ν, la transformacion
TΦ(D(ν)) es la matriz de Hessenberg de la medida sumam∑s=1
psν φ−1s como ya
habıamos probado anteriormente.
Teorema 3.3.4. Consideramos el SFI con probabilidades
Φ = φ1, φ2, . . . , φk; p1, p2, . . . , pk,
de semejanzas contractivas φs(z) = αsz+βs para s = 1, 2, . . . , k. Sea µ la correspon-
diente medida autosemejante y sea TΦ la transformacion anterior.
Entonces, para cada matriz de Hessenberg D(ν) asociada a una medida ν, se tiene
que la sucesion TnΦ(D(ν)) converge elemento a elemento a la matriz de Hessenberg
D(µ), donde TnΦ denota la n-esima composicion de TΦ.
Demostracion. Sea la medida ν y sea D(ν) la matriz de Hessenberg asociada. La
sucesion de matrices TnΦ(D(ν)) se corresponde unıvocamente con la sucesion de ma-
trices de momentos dadas por la iteracion del operador de Markov. Esta sucesion de
matrices de momentos converge a la matriz de momentos de la medida autosemejante
µ como vimos en el capıtulo anterior. El siguiente diagrama muestra la convergencia.
ν −→ TΦ(ν) −→ T 2Φ(ν) · · · T n
Φ(ν) −→ µ
M(ν) −→ TΦ(M(ν)) −→ T 2Φ (M(ν)) · · · T n
Φ (M(ν)) −→ Mµ
D(ν) −→ TΦ(D(ν)) −→ T2Φ(D(ν)) · · · Tn
Φ(D(ν)) −→ D(µ)
La velocidad de convergencia se deduce de resultados probados en el capıtulo
anterior y la estabilidad numerica del algoritmo de [Ma00]. Los ejemplos y calculos
de la siguiente seccion muestran estos resultados.
90
3.4 Comparativa de algoritmos y ejemplos
Observacion 3.3.5. El teorema anterior nos permite obtener valores aproximados
de las secciones de la matriz de Hessenberg de una medida autosemejante. Por otro
lado, la formula recurrente para los momentos de medidas autosemejantes dada en
el Teorema 2.2.1 nos permiten obtener, de forma exacta, los momentos de medidas
autosemejantes, mediante calculo simbolico. Utilizando las formulas (1.3), podemos
obtener la seccion n-esima exacta de la deseada matriz de Hessenberg de la medida
autosemejante. Este calculo simbolico tiene un alto coste computacional, pues las
expresiones de los momentos como vimos en el capıtulo anterior son inmanejables.
Sin embargo, si se utiliza el calculo numerico en las mismas formulas (1.3), el metodo
no es estable.
3.4. Comparativa de algoritmos y ejemplos
A lo largo de esta seccion llamaremos Algoritmo II al metodo que consiste en
aplicar el Teorema 3.3.4 para aproximar la matriz de Hessenberg asociadas a medidas
autosemejantes.
Por otro lado, llamaremos Algoritmo I al metodo que consiste en aplicar el pro-
ceso iterativo para matrices de momentos de medidas autosemejantes descritas en
el capıtulo anterior y recuperar la matriz de Hessenberg usando la factorizacion de
Cholesky (1.3).
En esta seccion aplicaremos estos dos algoritmos a cuatro ejemplos de medidas
autosemejantes, usando 10 dıgitos de precision y compararemos los resultados obte-
nidos con la matriz real de Hessenberg que podemos calcular a partir de la formula
(1.3) que, para secciones pequenas, se pueden calcular de forma simbolica a partir
de la matriz de momentos cuyas formulas se dan en el Teorema 2.2.1.
Ejemplo I. Consideramos la medida de Lebesgue normalizada en el intervalo [−1, 1]
91
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES
que, como sabemos, es la medida invariante asociada al SFI con probabilidades
Φ =
φ1(x) =
1
2x− 1
2, φ2(x) =
1
2x+
1
2; p1 = p2 =
1
2
.
Algoritmo I. En el ejemplo 2.2.4. vimos que si iteramos 20 veces la transformacion
TΦ(M(ν)) =2∑
i=1
1
2AH
φiM(ν)Aφi
, comenzando con la matriz identidad de orden 6,
obtenemos una matriz que aproxima, con diez dıgitos de precision, la seccion de orden
seis de la bien conocida matriz de momentos de la medida de Lebesgue. Aplicando
la formula (1.3), tenemos la siguiente aproximacion de la seccion de orden 5 de la
matriz de Jacobi J5(L)
0,0 0,5773502693 0,0 0,0 0,0
0,5773502691 0,0 0,5163977795 0,0 −0,7577722133 · 10−9
0,0 0,5163977796 0,0 0,5070925551 0,0
0,3023715782 · 10−9 0,0 0,5070925521 0,0 0,5039526136
0,0 −0,2639315569 · 10−8 0,0 0,5039526419 0,0
.
Algoritmo II. Comenzando con la seccion 5 de la matriz S del shift right, y haciendo
30 iteraciones de la transformacion TΦ(D) =m∑i=1
pi [V(i)]⋆
[αi[U
(i)]⋆DU (i) + βiI]V (i)
del Teorema 3.3.4 obtenemos la siguiente matriz
0,0 0,5773502692 0,0 −0,2133333332 · 10−9 0,0
0,5773502691 0,0 0,5163977796 0 −0,1 · 10−9
0,0 0,5163977796 0,0 0,5070925526 0,0
0,0 0,0 0,5070925529 0,0 0,5039526304
0,0 0,0 0,0 0,5039526307 0,0
.
Estas dos matrices coinciden, con 6 y 9 dıgitos de precision respectivamente, con la
seccion de orden 5 de la conocida matriz de Jacobi de esta medida que viene dada
por
dn+1,n = dn,n+1 =n+ 1√
4(n+ 1)2 − 1.
92
3.4 Comparativa de algoritmos y ejemplos
Ejemplo II. Consideramos la medida autosemejante para el SFI dado por
Φ =
φ1(z) =
z
2− 1
2, φ2(z) =
z
2+
1
2, φ3(z) =
z
2+
√3i
2; pi =
1
3
,
que como vimos en el Ejemplo 2.6.9. es la medida uniforme sobre el triangulo de
Sierpinski.
Algoritmo I. Con 30 iteraciones, comenzando con la matriz identidad, obtenemos
una aproximacion de la seccion de orden 4 de la matriz de Hessenberg de la medida:0,5773502693i 0,3 · 10−9 −0,4182428890i −0,2457739408 · 10−8
0,6666666673 0,5773502691i 0,1267731382 · 10−8 −0,3487499915i
0 0,7888106373 0,5773502706i 0,1292460659 · 10−8
−0,406877 · 10−9 0,279363 · 10−9i 0,7737179471 0,5773502588i
.
Algoritmo II. Comenzando con la seccion de orden 4 de la matriz del shift right,
y haciendo 20 iteraciones de TΦ(D) obtenemos la siguiente matriz.
0,5773497186 i −0,2 · 10−9 −0,4182428884 i −1,3 · 10−10 + 2,09 · 10−43 i
0,6666666668 0,5773497190 i 10−9 − 5,2 · 10−43 i 3,2 · 10−42 − 0,3487499858 i
0 0,7888106377 −1,5 · 10−42 + 0,5773497186 i −3,3 · 10−10 − 10−41 i
0 0 0,7737179434− 3,1 · 10−54 i −1,4 · 10−41 + 0,5773497189 i
.
Estas dos matrices coinciden en 8 dıgitos de precision (Algoritmo I) y 6 dıgitos de
precision (Algoritmo II) con la seccion de orden 4 de la matriz de Hessenberg de la
medida.
0,5773502693 i 0,0 −0,4182428886 i 0,0
0,6666666667 0,5773502693 i 0,0 −0,3487499856 i
0,0 0,7888106375 0,5773502693 i 0,0
0,0 0,0 0,7737179430 0,5773502693 i
.
Ejemplo III. Si en el SFI anterior consideramos ahora las probabilidades p1 =
1
10, p2 =
1
5, p3 =
7
10, se tiene una medida no uniforme sobre el triangulo de Sierpinski,
como se muestra en la figura.
93
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES
Algoritmo I. En este ejemplo cambiaremos el numero de iteraciones ya que la falta
de simetrıa de la medida incrementa el coste computacional significativamente.
Iterando 7 veces la transformacion TΦ, comenzando con la matriz identidad, ob-
tenemos una aproximacion de la seccion 4 de la matriz de Hessenberg de la medida
0,0992 + 1,2029i −0,2046− 0,1459i −1,799 · 10−6 − 0,3176i −0,0123 + 0,0555i
0,5538 + 1,3 · 10−10i 0,1439 + 0,8415i 0,0208− 0,0718i −0,0396− 0,3027i
5,68 · 10−10 + 1,7 · 10−21i 0,6848 + 5,36 · 10−10i 0,0390 + 0,7027i 0,0117− 0,0461i
5,39 · 10−9 + 8,09 · 10−10i 7,12 · 10−9 − 2,64 · 10−10i 0,7116− 2,39 · 10−10i 0,07365 + 0,6745i
.
Algoritmo II. Comenzando con la seccion cuarta de la matriz S del shift right, y
haciendo 7 iteraciones de TΦ(S) obtenemos la siguiente matriz0,099218 + 1,202963i −0,204629− 0,145941i −0,0000179− 0,317680i −0,012314 + 0,055542i
0,5538131313 0,143933 + 0,841541i 0,020889− 0,0718614i −0,039695− 0,302772i
0 0,684812 + 2,05958 · 10−12i 0,0390029 + 0,702786i 0,011747− 0,046155i
0 0 0,711680 + 1,54964 · 10−12i 0,0736565 + 0,674541i
.
En este caso la precision es peor para ambos algoritmos ya que no se aproxima
ni el primer dıgito, como se puede ver comparando con la matriz de Hessenberg de
la medida
0,0625 + 0,1082531755i 0,0021374549 − 0,003702180487i 0,04874098508 − 0,2610232725i 0,1007995886 − 0,002813009752i
0,4061164311 0,1017659280 + 0,4526242191i −0,07918289508 − 0,08407913301i −0,005267584405 − 0,3789834853i
0,0 0,6472315398 0,07376706430 + 0,4160651343i 0,01865543829 + 0,01575640500i
0,0 0,0 0,6863040829 −0,01522931965 + 0,4338707470i
94
3.4 Comparativa de algoritmos y ejemplos
Ejemplo IV. Consideramos la medida autosemejante para el SFI con probabili-
dades dado por
Φ = φ1(z) =1
4z +
1 + i
2, φ2(z) =
1
4z +
1− i
2,
φ3(z) =1
4z +
−1 + i
2, φ4(z) =
1
4z +
−1− i
2; pi =
1
4
que es la medida uniforme sobre el conjunto de Cantor plano.
Algoritmo I. Iterando TΦ 10 veces comenzando con la matriz identidad, obtenemos
una aproximacion de la seccion de orden 5 de la matriz de Hessenberg de la medida
0 0 0 −0,5534617900 0
0,7302967432 0 0 0 −0,1728136409
0 0,7720611578 0 0 0
0 0 0,8042685429 0 0
0 0 0 0,6168489579 0
.
Algoritmo II. Comenzando con la seccion de orden 5 de la matriz del shift right,
y haciendo 10 iteraciones de TΦ(D) obtenemos la siguiente matriz
0,0 + 0,0 i 0,0 + 0,0 i 0,0 + 0,0 i −0,5534617900 + 0,0 i 0,0 + 0,0 i
0,7302967435 0,0 + 0,0 i 0,0 + 0,0 i 0,0 + 0,0 i −0,1728136412 + 0,0 i
0,0 0,7720611574 0,0 + 0,0 i 0,0 + 0,0 i 4,0× 10−11 + 0,0 i
0,0 0,0 0,8042685430 0,0 + 0,0 i 0,0 + 0,0 i
0,0 0,0 0,0 0,6168489588 0,0 + 0,0 i
.
95
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES
Estas dos matrices coinciden con 8 dıgitos de precision con la matriz de orden 5
de la matriz de Hessenberg de la medida.
0,0 0,0 0,0 −0,5534617899
0,7302967432 0,0 0,0 0,0
0,0 0,7720611580 0,0 0,0
0,0 0,0 0,8042685432 0,0
.
Observamos que ambos metodos sirven para aproximar la matriz de Hessenberg de
medidas autosemejantes y por tanto la sucesion de polinomios ortogonales asociados
a la medida autosemejante. En los ejemplos hemos obtenido resultados similares sin
embargo el algoritmo II es estable.
3.5. Matriz de Hessenberg asociada a una suma
de matrices HDP
En la seccion 3.2 se presentaba un metodo para calcular la matriz de Hessen-
berg asociada a la suma de medidas a partir de las matrices de Hessenberg de las
medidas componentes. A lo largo de esta seccion veremos que es posible generalizar
esta operacion para matrices de Hessenberg acotadas con subdiagonal estrictamente
positiva y no necesariamente subnormales y que, por tanto, no estan necesariamente
asociados a una medida.
Para extender el concepto de matrices de Hessenberg asociadas a una suma de
medidas, definiremos una operacion algebraica entre matrices acotadas de Hessen-
berg. Esta operacion consiste en obtener la matriz de Hessenberg asociada a la matriz
hermitiana definida positiva dada por la suma convexa de las matrices hermitianas
asociadas a las matrices de Hessenberg componentes. Ya que esta operacion esta re-
lacionada con la matriz hermitiana que usualmente denotamos por M , llamaremos
a esta operacion m-suma.
96
3.5 Matriz de Hessenberg asociada a una suma de matrices HDP
Finalmente, en la ultima seccion, obtenemos la formula explıcita para la m-suma
de un shift con pesos. Utilizaremos los resultados Stampfli [Sta66] con el fin de
estudiar que propiedades de subnormalidad e hiponormalidad se conservan bajo lam-
suma. En particular, se construye un interesante ejemplo de una matriz de Hessenberg
subnormal que es la m-suma de dos matrices que no son subnormales.
3.5.1. m-Suma de matrices de Hessenberg
En esta seccion definimos una operacion algebraica entre matrices acotadas de
Hessenberg con subdiagonal real y positiva. Estudiaremos esta operacion que llama-
remos m-suma y probamos algunas de sus propiedades. Obtenemos una expresion
que involucra los factores de Cholesky de las correspondientes matrices hermitianas
definidas positivas asociadas a las Hessenberg componentes. Por otra parte, obser-
vamos que el algoritmo dado en el Teorema 3.2.7 para calcular secciones finitas de
la suma de las matrices de Hessenberg se puede aplicar a la m-suma de matrices
Hessenberg no necesariamente subnormales. Daremos algunos ejemplos de m-suma
obteniendo el valor exacto de las secciones finitas de la matriz Hessenberg.
Definicion 3.5.1. Sea D(i)mi=1 una familia de matrices de Hessenberg superiores
acotadas con subdiagonal estrictamente positiva y M (i)mi=1 la familia de matrices
hermitianas definidas positivas asociadas. SeaM =m∑i=1
pi M(i) con
m∑i=1
pi = 1 y pi > 0
la matriz HDP suma. Definimos la m-suma de las matrices D(i) con probabilidades
(p1, p2, . . . , pm) como la matriz de Hessenberg D asociada con M . Denotaremos a
esta operacion por
D = D(1)p1
· · ·D(m)pm .
Teorema 3.5.2. Sea D(i)mi=1 una familia de matrices de Hessenberg superiores
acotadas con subdiagonal estrictamente positiva. Sea D = D(1)p1 · · · D
(m)pm la m-
suma para el vector de probabilidad (p1, p2, . . . , pm). Entonces D se puede expresar
97
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES
de la forma
D =m∑i=1
pi [V(i)]⋆D(i)V (i),
siendo
V (i) = [T (i)]⋆(T ∗)−1, i = 1, . . . ,m,
donde T (i) y T son los factores de Cholesky de M (i) y M , respectivamente.
Demostracion. Consideramos
M ′ =m∑i=1
piM′(i). (3.16)
ya que V (i) = [T (i)]⋆(T ∗)−1, entonces (T ∗)−1 = ([T (i)]∗)−1V (i) y T−1 = [V (i)]⋆[T (i)]−1.
Multiplicando (3.16) por T−1 and (T ∗)−1 tenemos
D = T−1M ′(T ∗)−1 =m∑i=1
piT−1[M ′](i)(T ∗)−1
=m∑i=1
pi[V(i)]⋆[T (i)]−1[M ′](i)([T (i)]∗)−1V (i)
=m∑i=1
pi[V(i)]⋆D(i)V (i).
Esto finaliza la prueba del teorema.
Proposicion 3.5.3. Sea D(i)mi=1 con probabilidades (p1, p2, . . . , pm) como antes.
Sea D = D(1)p1 · · · D
(m)pm la m-suma. Entonces, V
(i)j = Pj(D
(i))e0, donde Pn es
la SPON asociada a D.
Demostracion. Observamos que la j-esima columna de (T ∗)−1 es justamente el vector
de coordenadas de Pj respecto de la base algebraica zk. Entonces tenemos que:
(T ∗)−1ej =
a0j...
ajj
0
...
=
j∑k=0
ajk ek =
j∑k=0
ajk [S]ke0,
98
3.5 Matriz de Hessenberg asociada a una suma de matrices HDP
donde Pj(z) =
j∑k=0
akjzk y S es la matriz del shift right.
Puesto que D(i) = [T (i)]⋆S([T (i)]∗)−1, entonces [D(i)]k = [T (i)]⋆[S]k([T (i)]∗)−1, para
todo k = 0, 1, 2, . . ., de aquı que [D(i)]k[T (i)]⋆ = [T (i)]⋆[S]k.
Por lo tanto,
V(i)j = [T (i)]⋆(T ∗)−1ej = [T (i)]⋆
j∑k=0
ajk[S]ke0
=
j∑k=0
ajk([T (i)]⋆[S]k
)e0 =
j∑k=0
ajk([D(i)]k[T (i)]⋆
)e0
=
j∑k=0
ajk[D(i)]ke0 = Pj(D
(i))e0,
donde hemos usado la identidad [T (i)]⋆e0 = e0
Observacion 3.5.4. Las formulas del Teorema [3.2.7] siguen siendo ciertas para la
m-suma. Estas formulas nos permiten definir un algoritmo recursivo para calcular
las secciones de orden n, Dn, de la m-suma D, partiendo de las secciones de orden n
de las matrices componentes D(i)n .
Observacion 3.5.5. Sabemos que a toda matriz D de Hessenberg superior infinita
con subdiagonal estrictamente positiva le corresponde una unica matriz del producto
escalar M , hermitiana definida positiva infinita (salvo una constante multiplicativa
positiva) y viceversa.
Llamaremos D al conjunto de las matrices de Hessenberg superiores infinitas con
subdiagonal estrictamente positiva, acotadas como operadores en ℓ2(N0), subnorma-
les o no. La seccion anterior nos permite definir en dicho conjunto una operacion
binaria D(1) D(2) = D, donde D es la matriz de Hessenberg correspondiente a
M = M (1) +M (2).
Propiedades 3.5.6. Las siguientes propiedades de la m-suma son inmediatas.
a) Dp D1−p = D (Idempotencia).
99
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES
b) D(1)p D
(2)q = D
(2)q D
(1)p ∀D(1), D(2) ∈ D (Conmutativa).
c) D(1)p1
[D
(2)p2 D
(3)p3
]=[D
(1)p1 D
(2)p2
]D
(3)p3 ∀D(1), D(2), D(3) ∈ D (Asociativa).
d) Si D(1) y D(2) son subnormales, entonces la m-suma es subnormal.
e) Si D(1) y D(2) son matrices de Jacobi, entonces la m-suma es tambien de Jacobi.
Es interesante estudiar el comportamiento de otras propiedades de la m-suma pa-
ra diferentes tipos de matrices de operadores, en particular en relacion al caracter hi-
ponormal o subnormal de los operadores. Usaremos algunas definiciones y resultados
de teorıa de operadores que se pueden encontrar en el capıtulo 1 y en [Con85, Hal84].
Recordemos que un operador A es hiponormal si A∗A−AA∗ ≥ 0 y que todo operador
subnormal es hiponormal.
Veamos ahora algunos ejemplos en los que se calcula la m-suma de matrices de
Hessenberg.
En la proxima seccion analizamos el comportamiento de la m-suma en relacion al
caracter de hiponormalidad y subnormalidad de los operadores para un tipo especial
de operadores.
Ejemplo 3.5.7. Sea D(1) y D(2) las matrices de Hessenberg asociadas con las matri-
ces hermitianas definidas positivas cuyas entradas vienen definidas por los numeros
binomiales:
c(1)ij =
(i+ j − 2
i− 1
)· i · j y c
(2)ij =
(i+ j − 2
i− 1
)(i+ j − 1),
respectivamente. Entonces las correspondientes matrices de Hessenberg son
100
3.5 Matriz de Hessenberg asociada a una suma de matrices HDP
D(1) =
2 −1
2
1
3· · · (−1)n+1
n· · ·
2 1 0 · · · 0 · · ·
03
21 · · · 0 · · ·
0 04
3· · · 0 · · ·
......
......
0 0 0 · · · 1 · · ·
0 0 0 · · · n+ 1
n· · ·
......
......
. . .
, n ≥ 2,
y
D(2) =
2−√2
2
√3
3. . .
(−1)n√n
n. . .
√2 1 0 . . . 0 . . .
0
√2√3
21 . . . 0 . . .
0 0
√3√4
3. . . 0 . . .
.
.....
.
.....
0 0 0 . . . 1 . . .
0 0 0 . . .
√n(n+ 1)
n. . .
.
.....
.
.....
. . .
, n ≥ 2.
Entonces las secciones finitas Dn de la matriz de Hessenberg de la m-suma
D = D(1)12
D(2)12
pueden ser calculadas por el algoritmo definido en [EGST11]. En
particular la seccion de orden 6 de D es:
2 −√3
3
√6
6−√10
10
√15
15−√21
21√3 1 0 0 0 0
0√2 1 0 0 0
0 0
√5√3
31 0 0
0 0 0
√3√2
21 0
0 0 0 0
√5√7
51
.
101
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES
Es facil probar que la m-suma es la siguiente matriz infinita:
D =
2−√3
3
√6
6. . .
(−1)n√2n2 + 6n+ 4
n2 + 3n+ 2. . .
√3 1 0 . . . 0 . . .
0
√3√6
31 . . . 0 . . .
0 0
√10√6
6. . . 0 . . .
......
......
0 0 0 . . . 1 . . .
0 0 0 . . .
√2n2 + 10n+ 12
2n2 + 6n+ 4. . .
......
......
. . .
n ≥ 1.
En este ejemplo, las matrices D(1) y D(2) definen operadores que no son sub-
normales y es facil comprobar que la m-suma no es hiponormal y por tanto no es
subnormal.
Ejemplo 3.5.8. Sea M (1) =1
2I, y
M (2) =
1
2a 0 0 · · ·
a a2 +1
2a 0 · · ·
0 a a2 +1
2a · · ·
......
......
. . .
.
Entonces, D(1) = S, y
D(2) =
a −a2 a3 . . . (−1)n+1an . . .
1 0 0 . . . 0 . . .
0 1 0 . . . 0 . . .
0 0 1 . . . 0 . . .
......
......
. . .
, n ≥ 1,
102
3.5 Matriz de Hessenberg asociada a una suma de matrices HDP
donde a < 1, para que D(2) sea acotada. Entonces, la m-suma es
D = D(1)12
D(2)12
=
1 a 0 0 · · ·
a a2 + 1 a 0 · · ·
0 a a2 + 1 a · · ·
......
......
. . .
.
En este segundo ejemplo, la matriz D(1) = S define un operador subnormal. En
este caso, como la m-suma no es hiponormal, podemos asegurar que la matriz D(2)
no define un operador subnormal.
Hay que destacar que la subnormalidad de un operador de Hessenberg (que como
ya hemos visto equivale a que el problema de los momentos tenga o no solucion) no
es facil de estudiar, por lo que la m-suma nos proporciona una nueva herramienta
para atacar este problema.
3.5.2. m-Suma de shifts con pesos
Uno de los ejemplos mas sencillos de analizar es aquel en que la matriz M del
producto escalar es diagonales. Cuando esta matriz es de momentos, la medida co-
rrespondiente tiene simetrıa concentrica respecto del origen. La matriz de Hessenberg
asociada a una matriz HDP diagonal es un shifts con pesos y sera subnormal cuan-
do M sea de momentos. Consideramos el espacio de Hilbert P 2(M) con la SPON
Pn∞n=0. Siguiendo a Stampfli [Sta66], diremos que S es un shift si verifica que
SPn = anPn+1. Diremos que S es un shift monotono cuando la sucesion de pesos
an es no decreciente y acotada. Stampfli probo que el shift monotono es hipo-
normal y estudio cuando es subnormal. Usaremos los resultados de Stampfli para
construir los siguientes ejemplos.
Proposicion 3.5.9. Sean an∞n=1 y bn∞n=0 dos sucesiones acotadas de numeros
103
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES
reales positivos. Sean Da y Db los correspondientes shifts con pesos
Da =
0 0 0 0 0 0
a1 0 0 0 0 0
0 a2 0 0 0 0
0 0 a3 0 0 0
0 0 0 a4 0 0
0 0 0 0 a5 0
, Db =
0 0 0 0 0 0
b1 0 0 0 0 0
0 b2 0 0 0 0
0 0 b3 0 0 0
0 0 0 b4 0 0
0 0 0 0 b5 0
.
Entonces la m-suma D = Da,p Db,q es un shift con pesos, con sucesion de pesos
dada por la siguiente formula
dn =
√√√√p
n∏k=1
a2k + q
n∏k=1
b2k√√√√pn−1∏k=1
a2k + qn−1∏k=1
b2k
, para n ≥ 1, (3.17)
donde el producto sobre el conjunto vacıo se considera igual a 1.
Demostracion. La matriz hermitiana definida positiva asociada a un shift con pesos,
es una matriz diagonal. Las entradas de Ma en funcion de Da son
cnn =n∏
k=1
a2k para n ≥ 1 y c00 = 1.
Por la definicion de la m-suma, se tiene que pMa + qMb = M(D) donde M(D) es la
matriz HDP asociada a m-suma de Da y Db.
En este caso los vectores auxiliares que se construyen en el proceso seran
v(a)0 = e0 y v(a)n =
n∏k=1
ak√√√√p
n∏k=1
a2k + q
n∏k=1
b2k
en, n = 1, 2, . . .
donde en∞n=0 son los vectores de la base canonica de ℓ2(N0).
104
3.5 Matriz de Hessenberg asociada a una suma de matrices HDP
Ejemplo 3.5.10 (Una matriz de Hessenberg subnormal obtenida como
m-suma de dos matrices de Hessenberg que no son subnormales). Con-
sideramos los shifts con pesos Da y Db correspondientes a las sucesiones
an | a1 =
1
2, a2 = a, an = 1 para todo n ≥ 3
y bn | b1 =
1
2, b2 = b, bn = 1 para todo n ≥ 3
,
respectivamente.
Entonces, usando (3.17) tenemos que m-suma D = Da,1/2Db,1/2 es un shift con
pesos, con sucesion
dn | d1 =
1
2, d2 =
√a2 + b2√
2, dn = 1 para todo n ≥ 3
.
Usaremos el resultado de Stampfli en [Sta66], que afirma que si Sr es un shift con
pesos monotono con sucesionrn | r1 = 1
2, r2 = r; rn = 1 para todo n ≥ 1
, entonces,
Sr es subnormal si y solo si r2 = 1. Ademas, todo shift con pesos es hiponormal si y
solo si es monotono [Con91].
Observamos que en este ejemplo los tres shifts con pesos Da, Db y D tienen vienen
definidos por el mismo tipo de sucesion a1 = b1 = d1 = 12, a2 = a, b2 = b, d2 = d y
an = bn = dn = 1 para todo n ≥ 3.
Analizaremos, siguiendo los resultados de Stampfli, las propiedades de hiponor-
malidad y subnormalidad para los diferentes valores de los parametros de a y b de
acuerdo a la siguiente figura. El analisis se estructura en tres casos atendiendo al
caracter subnormal, hiponormal pero no subnormal y no hiponormal.
105
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES
12
1√2
1√2
D hiponormal no subnormal, y
+: Da y Db ambos hiponormales
×: no hiponormales
: uno hiponormal y otro no hiponormal
D no hiponormal, y
⊗: uno hiponormal y otro no hiponormal
⊕: ambos no hiponormales⊕
⊗
⊗
×
×
+
⊕
⊕
⊗
⊗
⊕
1. La m-suma D = Da, 12Db, 1
2es subnormal. La matriz D es subnormal si solo si
d2 = 1, que corresponde a la circunferencia
a2 + b2 = 2.
Analicemos los siguientes casos sobre la circunferencia:
a) Un caso trivial. Si una de las matrices Da o Db es subnormal, se tiene que la
otra tambien y que Db = Da = D.
Supongamos que Da es subnormal, por tanto a = 1 y como a2 + b2 = 2, se
tiene que b = 1. Por tanto Db es subnormal y ademas, Db = Da = D.
b) Ninguna de las dos matrices Da y Db es subnormal. Para encontrar Da y Db
no subnormales es suficiente tomar a y b, diferentes de 1, en la circunferencia
de radio√2. Se observa que en este caso o bien Da o bien Db es hiponormal
y no se da el caso en el que las dos sean hiponormales.
Este es un caso sorprendente que no tiene analogo en el caso real: Sumamos
dos matrices HDP que no son de momentos y por tanto no existe medida
asociada a ninguna de ellas ([Hal84, Con85]), sin embargo, obtenemos como
resultado de la suma una matriz de momentos con media asociada. En este
caso, la medida asociada es la medida de Lebesgue en la circunferencia unidad
mas un atomo en el origen. Sin embargo, en el caso real todas las matrices
106
3.5 Matriz de Hessenberg asociada a una suma de matrices HDP
de Jacobi son autoadjuntas y por tanto subnormales, de forma que siempre
hay medida asociada.
2. La m-suma D = Da, 12Db, 1
2es hiponormal pero no subnormal.
Debido a que todo shift monotono es hiponormal, podemos tomar en este ca-
so 12≤ d2 < 1, para mantener la monotonıa y evitar la subnormalidad. Como
consecuencia nos encontramos en la region comprendida entre las circunferencias
1
2≤ a2 + b2 < 2.
En la figura esta region esta marcada con los sımbolos +, and ×, que se corres-
ponden con las siguientes posibilidades.
a) Las matrices Da y Db son ambas hiponormales. Este caso esta marcado en
la figura con + y se corresponde con la region
1
2≤ a ≤ 1 y
1
2≤ b ≤ 1.
Tomando a = 1, conseguimos que Da sea subnormal y Db no lo sea y vice-
versa.
b) Una de las matrices Da o Db es hiponormal y la otra no. Este caso se corres-
ponde con la region marcada con en la figura.
c) Ninguna de las matrices Da y Db son hiponormales. Este caso se corresponde
con la region marcada con × en la figura.
3. La m-suma D = Da, 12Db, 1
2no es hiponormal.
Esta region se corresponde con los valores d2 < 12o d2 > 1, es decir, con las
regiones
a2 + b2 <1
2y a2 + b2 > 2,
que estan marcadas en la figura con los sımbolos ⊗ y ⊕, dando lugar a los si-
guientes casos.
107
MATRICES DE HESSENBERG Y MEDIDAS AUTOSEMEJANTES
a) Una de las matrices Da o Db es hiponormal y la otra no. Este caso se corres-
ponde con la region marcada con ⊗ en la figura.
Observamos que en esta region, cuando tomamos a = 1 o b = 1, tenemos
que una de las matrices Da o Db es subnormal.
b) Ninguna de las matrices Da o Db es hiponormal. La region correspondiente
a este caso esta marcada en la figura con ⊕.
108
Capıtulo 4
AUTOVALORES MINIMOS DE
MATRICES DE MOMENTOS
A lo largo de este capıtulo se considera una matriz infinita hermitiana definida
positiva M , asociada a una medida µ con soporte compacto en C y se estudia el
impacto del comportamiento asintotico del autovalor mınimo λn de la submatriz
principal de tamano (n+1)× (n+1) y algunos topicos relacionados con el problema
de los momentos en el plano complejo, en el caso acotado.
En particular se prueba que si los polinomios son densos en L2(µ), entonces el
autovalor mınimo λn de la seccion n+1 de la matriz M tiende a cero cuando n tiende
a infinito. Cuando el soporte de µ es el disco unidad obtenemos algunos resultados.
Consideraremos a lo largo de este capıtulo, para mayor comodidad de las expresiones
que apareceran en el desarrollo del mismo, la segunda expresion del producto interior
vista en la Observacion 1.2.1 y denotaremos porMn la seccion de orden (n+1)×(n+1)
de la matriz HDP de momentos M = (cij)∞i,j=0.
De esta forma, podemos expresar el producto interior definido porM en el espacio
vectorial de P[z] en la siguiente forma: si p(z) =∑n
k=0 akzk y q(z) =
∑mk=0 bkz
k
109
AUTOVALORES MINIMOS DE MATRICES DE MOMENTOS
entonces
⟨p, q⟩ =(a0 a1 . . . an 0 . . .
)c00 c01 c02 . . .
c10 c11 c12 . . .
......
.... . .
b0
b1...
bm
0
...
. (4.1)
Sea Pn(z)∞n=0, donde Pn(z) =1
vn,nPn(z), denota la sucesion de polinomios monicos,
donde Pn(z) =∑n
k=0 vk,nzk denota el polinomio ortonormal. Recordemos que, para
cada n ∈ N, n-nucleo z, w ∈ C se define como Kn(z, w) =∑n
k=0 Pk(z)Pk(w).
Denotamos por λn el autovalor mınimo de Mn. Es facil ver que la sucesion λn∞n=0
es una sucesion de numeros positivos no creciente y por lo tanto lımn→∞ λn existe.
En el caso de matrices HDP de Hankel, que son matrices de momentos de medi-
das sobre R, el comportamiento asintotico de λn ha sido estudiado en los artıculos
clasicos de Szego [Sze36] y Widom y Wilf [WW66]. Mas recientemente, Berg, Chen
y Ismail [BCI02] han probado que una medida µ sobre R es determinada, lo que
significa que µ es la unica medida con soporte real que tiene los mismos momentos
que µ, si y solo si λn → 0 cuando n tiende a infinito. Este nuevo criterio para la
determinacion de una medida ha motivado el estudio de este comportamiento en el
caso de medidas con soporte compacto en C. En este contexto la situacion es com-
pletamente diferente puesto que es conocido que cada medida con soporte compacto
en C es siempre determinada. Por otro lado, para la medida de Lebesgue normali-
zada en la circunferencia unidad, m, la matriz de momentos asociada es la matriz
identidad I y obviamente λn = 1 para todo n ∈ N. El proposito del presente capıtulo
es relacionar el comportamiento asintotico del autovalor mınimo λn con el problema
de aproximacion por polinomios, esto es, determinar cuando P 2(µ) = L2(µ), donde
P 2(µ) es el cierre de P[z] en L2(µ).
110
La siguiente seccion esta dedicada a la prueba del principal resultado que establece
que si µ es una medida de Borel en C con soporte compacto e infinitos puntos de
crecimiento efectivo tal que L2(µ) = P 2(µ), entonces lımn→∞ λn = 0. El resultado
recıproco no es cierto, como veremos en el ejemplo.
En la segunda seccion, obtenemos varios resultados en el caso de medidas con soporte
en el disco unidad cerrado D. Se descubre que para tales medidas, el comportamiento
asintotico de la norma de los polinomios ortogonales monicos y el del autovalor
mınimo dependen solamente del correspondiente comportamiento de la restriccion
de la medida a la circunferencia unidad T. Esto no es cierto para la asintotica de los
n-nucleos en 0. Terminamos con algunas condiciones necesarias para aproximacion
polinomial en el espacio L2(µ) en terminos de esta asintotica.
Primero, introducimos alguna notacion y terminologıa. Sea Mn una matriz HDP de
orden n+ 1 y denotamos por e0, . . . , en la base canonica en Cn+1. Denotamos por
v0, . . . , vn la unica base ortonormal de Cn+1 con respecto al producto interior in-
ducido por Mn de forma que vi = (v0,i, . . . , vi,i, 0, . . . , 0) con vi,i > 0. Denotamos
por ∥v∥ la norma inducida por este producto, i.e., ∥v∥2 = vMnv∗. El espacio vec-
torial Pn[z] de todos los polinomios de grado menor o igual puede ser obviamente
identificado con Cn+1. Considerando Mn como la seccion (n + 1) de la matriz de
momentos M(µ) asociada a µ, si p(z) = a0 + · · · + anzn, q(z) = b0 + · · · + bnz
n,
a = (ai)ni=0, b = (bi)
ni=0 ∈ Cn+1, tenemos
aMnb∗ =
∫p(z)q(z)dµ.
En particular, si q(z) = 1+w1z+ · · ·+wnzn, denotamos por (1, w) ≡ (1, w1, . . . , wn).
Con esta notacion, (1 w
)Mn
1
w∗
=
∫|q(z)|2dµ.
Dada una matriz HDP Mn de orden n + 1 denotamos por ∥Mn∥ la norma de Mn
como aplicacion lineal de Cn+1 en Cn+1 con la norma euclıdea ∥v∥2. En este caso, se
111
AUTOVALORES MINIMOS DE MATRICES DE MOMENTOS
tiene que
∥Mn∥ = sup∥Mnv∥2 : ∥v∥2 = 1, v ∈ Cn+1 = supvMnv∗ : v ∈ Cn+1, ∥v∥2 = 1 = βn,
donde βn es el maximo autovalor de Mn.
Por otro lado,
λn = ınfvMnv∗ : v ∈ Cn+1, ∥v∥2 = 1.
Sean M1,M2 matrices HDP de tamano n × n. Diremos que M1 ≤ M2 si vM1v∗ ≤
vM2v∗, para cada v ∈ Cn. Para matrices infinitas HDP el orden es definido de forma
analoga sustituyendo Cn por el espacio C00 de todas las sucesiones complejas con
un numero finito de terminos no nulos.
4.1. Aproximacion polinomial en L2(µ) y compor-
tamiento asintotico del autovalor mınimo λn
Para probar el principal resultado necesitamos algunos lemas previos. El siguiente
lema establece un resultado para cierto problema de minimizacion para matrices
infinitas hermitianas que puede ser de interes independiente.
Lema 4.1.1. Sea M una matriz HDP y sea Mn la seccion de orden (n + 1). Sea
v0, . . . , vn la base ortonormal de Cn+1 con respecto al producto interior inducido
por Mn con vi = (v0,i, . . . , vi,i, 0, . . . , 0) para i = 0, . . . , n y vi,i > 0. Entonces,
1∑ni=0 |v0,i|2
= ınf(1 w
)Mn
1
w∗
: w ∈ Cn =1
e0M−1n e∗0
, (4.2)
y
1∑∞i=0 |v0,i|2
= ınf(1 w
)M
1
w∗
: w ∈ c00, (4.3)
donde el lado izquierdo es cero si∑∞
i=0 |v0,i|2 = ∞.
112
4.1 Aproximacion polinomial en L2(µ) y comportamiento asintotico delautovalor mınimo λn
Demostracion. Cada vector (1, w) ∈ Cn+1 puede ser expresado como (1, w) =∑n
i=0 aivi,
con la condicion∑n
i=0 aiv0,i = 1. De aquı,
ınf(1 w
)Mn
1
w∗
: w ∈ Cn = ınf
(n∑
i=0
aivi
)Mn
(n∑
i=0
aivi
)∗
:n∑
i=0
aiv0,i = 1,
y puesto que viMnv∗j = δi,j para i, j ≤ n,
ınfn∑
i=0
|ai|2 :n∑
i=0
aiv0,i = 1 =1∑n
i=0 |v0,i|2.
Esto demuestra la igualdad izquierda en (4.2). Para probar la igualdad derecha en
(4.2), consideramos αi =vivi,i
= (α0,i, α1,i, . . . , 1, 0, . . . , 0), luego α0,i =v0,ivi,i
= ∥αi∥v0,i.
Sea Cn la matriz dada por
Cn =
1 α0,1 . . . α0,n
0 1 . . . α1,n
......
. . ....
0 0 . . . 1
.
Es claro que |Cn| = 1 y C−1n existe. Por otro lado, si denotamos porD(∥α0∥2, . . . , ∥αn∥2)
la matriz diagonal de orden (n+1)×(n+1) con entradas ∥αi∥2, i = 0, . . . , n, entonces:
C∗nMnCn = D(∥α0∥2, . . . , ∥αn∥2).
Por tanto Mn = (C∗n)
−1D(∥α0∥2, . . . , ∥αn∥2)C−1n y ası M−1
n se puede expresar como:
M−1n = CnD(
1
∥α0∥2, . . . ,
1
∥αn∥2)C∗
n.
Por lo tanto
e0M−1n e∗0 = e0CnD(
1
∥α0∥2, . . . ,
1
∥αn∥2)C∗
ne∗0 =
n∑k=0
|α0,k|2
∥αk∥2,
ası
1∑ni=0 |v0,i|2
=1
e0M−1n e∗0
.
La version infinita (4.3) es ahora una consecuencia facil.
113
AUTOVALORES MINIMOS DE MATRICES DE MOMENTOS
Si M es una matriz de momentos, el Lema 4.1.1 puede ser aplicado para obtener las
propiedades extremales de los n-nucleos en 0 (ver p.e. [Ass97]).
Corolario 4.1.2. Sea M(µ) una matriz de momentos HDP asociada a la medida
µ con soporte en C y sea Pk(z)∞k=0 la sucesion de los polinomios ortonormales
respecto a µ. Entonces, para cada n ∈ N:
1∑nk=0 |Pk(0)|2
= mın∫
|qn(z)|2dµ : qn(z) ∈ Pn[z], qn(0) = 1 =1
e0M−1n e∗0
.
Demostracion. Observamos que, usando la notacion matricial introducida antes, te-
nemos:
mın∫
|qn(z)|2dµ : qn(z) ∈ Pn[z], qn(0) = 1 = ınf(1 w
)Mn
1
w∗
: w ∈ Cn.
El resultado es una consecuencia del Lema 4.1.1, y el hecho de que v0,k = Pk(0), para
cada k.
El siguiente resultado extiende a matrices HDP un resultado para matrices Hankel
en [BS11].
Lema 4.1.3. Sea M(µ) una matriz de momentos infinita HDP asociada a una medi-
da µ con soporte en C, λn el autovalor mınimo de Mn y sea z0 con |z0| < 1. Entonces
λn ≤ (∑n
k=0 |z0|2k) (∑n
k=0 |Pk(z0)|2)−1, para cada n ∈ N. Como consecuencia,
lımn→∞
λn ≤
((1− |z0|2)
∞∑k=0
|Pk(z0)|2)−1
.
Demostracion. Puesto que Mn es hermitiana, tenemos que λn =1
∥M−1n ∥
. Por otro
lado, si |z0| < 1 y v = (1, z0, . . . , zn0 ), por algunos resultados analogos en [Bre80]
(pag. 52) y [Sze75] (pag. 377), tenemos
n∑k=0
|Pk(z0)|2 = Kn(z0, z0) = vM−1n v∗ ≤ 1
λn
(n∑
k=0
|z0|2k).
Por tanto λn ≤ (∑n
k=0 |z0|2k) (∑n
k=0 |Pk(z0)|2)−1. Tomando lımites cuando n tiende
a infinito se prueba el resultado.
114
4.1 Aproximacion polinomial en L2(µ) y comportamiento asintotico delautovalor mınimo λn
Observacion 4.1.4. Si M es una matriz de momentos, en general no es cierto que
lımn→∞ λn = ((1− |z0|2)∑∞
k=0 |Pk(z0)|2)−1. En efecto, sea η la medida de Lebesgue
en el disco (medida uniforme) D; es bien conocido que la matriz de momentos aso-
ciada a η es la matriz diagonal con entradas cnn =π
n+ 1y Pn(z) =
√n+1πzn. En
consecuencia
lımn→∞
λn = lımn→∞
cnn = 0 =
((1− |z0|2)
∞∑k=0
|Pk(z0)|2)−1
.
El siguiente resultado extiende el resultado en [BCI02] y [BD06] para el caso de medi-
das en R. Esto es, el mismo resultado es cierto cuando las medidas son consideradas
sobre C. La incluimos aquı en aras de completar informacion.
Lema 4.1.5. Sea M(µ) una matriz HDP asociada a una medida positiva µ en C y
sea m la medida normalizada de Lebesgue T. Entonces las siguientes afirmaciones
son equivalentes:
1. lımn→∞ λn > 0.
2. Existe c > 0 tal que, para cada p(z),∫|p(z)|2dµ ≥ c
∫T|p(z)|2dm.
Demostracion. Observamos que, si p(z) = a0+ · · ·+anzn y a = (a0, . . . , an), entonces∫
|p(z)|2dµ = aMna∗ ≥ λn
n∑k=0
|ak|2 = λn
∫T|p(z)|2dm,
y de esto se sigue el resultado.
Lema 4.1.6. Sea r ∈ (0, 1) y sea M(µ) una matriz de momentos asociada a la
medida µ en D(0; r). Entonces, para cada n ∈ N, se tiene que
∥Mn∥ ≤ µ(D(0; r))1
1− r2.
115
AUTOVALORES MINIMOS DE MATRICES DE MOMENTOS
Demostracion. Observamos que si βn es el mayor autovalor de Mn = (cij)ni,j=0 enton-
ces:
∥Mn∥ = βn ≤ Traza(Mn) =n∑
i=0
ci,i =
n∑i=0
∫D(0;r)
zizidµ ≤ µ(D(0; r))n∑
i=0
r2i ≤ µ(D(0; r))1
1− r2.
Siguiendo las ideas en [ST43] tenemos:
Lema 4.1.7. Sea µ una medida con soporte compacto en C. Supongamos z0 /∈
Supp(µ), entonces
1
D2∑∞
k=0 |Pk(z0)|2≤ dis2
(1
z − z0,P[z]
)≤ 1
d2∑∞
k=0 |Pk(z0)|2,
donde d = mın|z − z0| : z ∈ Supp(µ), D = max|z − z0| : z ∈ Supp(µ).
Demostracion. Tenemos que
dis2(1
z − z0, P 2(µ)) = lım
n→∞ınf
qn(z)∈Pn[z]
∫| 1
z − z0− qn(z)|2dµ
= lımn→∞
ınfqn(z)∈Pn[z]
∫|1− (z − z0)qn(z)|2
dµ
|z − z0|2
= lımn→∞
ınfqn+1(z)∈Pn+1[z],qn+1(z0)=1
∫|qn+1(z)|2
dµ
|z − z0|2.
Por las propiedades extremales del n-nucleo en z0 (ver [Ass97]) tenemos que
1∑n+1k=0 |Pk(z0)|2
= ınfqn+1(z)∈Pn+1[z],qn+1(z0)=1
∫|qn+1(z)|2dµ,
de donde se sigue el resultado.
Como una consecuencia del Lema 4.1.7 tenemos el siguiente corolario.
Corolario 4.1.8. Sea µ una medida con infinitos puntos en su soporte compacto en
C. Supongamos que z0 /∈ Supp(µ), entonces las siguientes afirmaciones son equiva-
lentes:
116
4.1 Aproximacion polinomial en L2(µ) y comportamiento asintotico delautovalor mınimo λn
1. La funcion1
z − z0∈ P 2(µ).
2.∑∞
n=0 |Pn(z0)|2 = ∞.
Probaremos ahora el principal resultado.
Teorema 4.1.9. Sea M(µ) la matriz de momentos asociada a una medida µ con
soporte compacto en C e infinitos puntos de crecimiento efectivo. Si los polinomios
son densos en L2(µ), es decir, P 2(µ) = L2(µ), entonces
lımn→∞
λn = 0,
donde λn es el autovalor mınimo de la seccion de orden (n+ 1) de M(µ).
Demostracion. Sea R > 0 tal que Ω = Supp(µ) ⊂ z ∈ C : |z| ≤ R. Para probar el
resultado consideramos varios casos:
Primer caso: 0 /∈ Supp(µ). Puesto que 1/z ∈ P 2(µ), se sigue, por el Corolario 4.1.8,
que∑∞
n=0 |Pn(0)|2 = ∞ y entonces, por el Lema 4.1.3, lımn→∞ λn = 0.
Segundo caso: 0 ∈ Supp(µ) y µ(0) = 0. En este caso lımr→0 µ(D(0; r)) = 0. Su-
pongamos que P 2(µ) = L2(µ) y que existe λ > 0 tal que λn ≥ λ, para todo n ∈ N.
Consideramos r suficientemente pequeno para asegurar que µ(D(0; r)) 11−r2
≤ λ2. De-
notamos por µcr la restriccion al conjunto Ω\D(0; r) de la medida µ, y µr la restriccion
a D(0; r) de µ. Sea n ∈ N fijo y v = (v0, . . . , vn) ∈ Cn+1 con∑n
k=0 |vk|2 = 1. Puesto
que Mn(µ) = Mn(µr) +Mn(µcr) y ∥Mn(µr)∥ ≤ λ
2por el Lema 4.1.6, se sigue que:
vMn(µcr)v
∗ = vMn(µ)v∗ − vMn(µr)v
∗ ≥ vMn(µ)v∗ − λ
2.
Tomando ınfimos a ambos lados de la igualdad obtenemos
λn(M(µcr)) ≥ λn(M(µ))− λ
2≥ λ
2. (4.4)
117
AUTOVALORES MINIMOS DE MATRICES DE MOMENTOS
Por otro lado, teniendo en cuenta que L2(µ) = P 2(µ) tenemos tambien L2(µcr) =
P 2(µcr). Ahora, aplicando el primer caso a la medida µc
r obtenemos que
lımn→∞
λn(M(µcr)) = 0.
Esto contradice (4.4).
Tercer caso: 0 ∈ Supp(µ) y µ(0) > 0. Supongamos de nuevo que P 2(µ) = L2(µ) y
que existe λ > 0 tal que λn ≥ λ > 0 para todo n ∈ N. Por el Lema 4.1.5, para cada
polinomio p(z), tenemos que:∫|p(z)|2dµ ≥ λ
∫T|p(z)|2dm.
Sea Ω0 = Ω \ 0 y µ0 la restriccion de la medida µ a este conjunto. Sea q(z) un
polinomio, entonces:
R2
∫Ω0
|q(z)|2dµ0 ≥∫Ω
|zq(z)|2dµ ≥ λ
∫T|zq(z)|2dm = λ
∫T|q(z)|2dm.
Por tanto: ∫Ω0
|q(z)|2dµ0 ≥λ
R2
∫T|q(z)|2dm.
Esto significa que para todo n ∈ N tenemos:
λn(M(µ0)) ≥λ
R2.
Puesto que µ0 es una medida que satisface que µ0(0) = 0, aplicando el segundo caso
obtenemos que L2(µ0) = P 2(µ0). De nuevo, esto es imposible porque L2(µ) = P 2(µ).
Esto finaliza la prueba del teorema.
Observacion 4.1.10. El recıproco del Teorema 4.1.9 no es cierto. Para probar esto
mostraremos a continuacion dos ejemplos.
118
4.1 Aproximacion polinomial en L2(µ) y comportamiento asintotico delautovalor mınimo λn
Ejemplo 1. Consideramos la matriz de Pascal
M =
1 1 1 1 . . .
1 2 3 4 . . .
1 3 6 10 . . .
1 4 10 20 . . .
......
......
. . .
,
es decir, cij =(i+ji
). Como vimos en el ejemplo 2.1.4, M es la matriz de momentos
asociada a la medida normalizada de Lebesgue µ en la circunferencia, centrada en el
punto (1, 0) y radio 1. La sucesion de polinomios ortonormales viene dada Pn(z) =
(z − 1)n para todo n ∈ N0. Por tanto∑∞
n=0 |Pn(0)|2 = ∞ y, por el Lema 4.1.3, se
sigue que lımn→∞ λn = 0. Por otro lado, aplicando el Lema 4.1.7, se sigue que
dis2(1
z − 1, P 2(µ)) =
1∑∞n=0 |Pn(1)|2
= 1.
Por lo que1
z − 1∈ L2(µ) no puede ser aproximado por polinomios y en consecuencia
P 2(µ) = L2(µ).
Ejemplo 2. Sea M la matriz de Toeplitz
2 1 0 0 . . .
1 2 1 0 . . .
0 1 2 1 . . .
0 0 1 2 . . .
......
......
. . .
.
M es la matriz de momentos asociada a la medida µ en la circunferencia unidad
dada por dµ(eiθ) = (w(θ)/2π)dθ con
w(θ) =∞∑
k=−∞
cke−ikθ = eθi + 2e0 + e−iθ = 2 + 2 cos θ.
Usando los resultados en [GS55], se deduce facilmente que λn = 2+ 2 cos (n+1)πn+2
y de
aquı que lımn→∞ λn = 0. Por otro lado, mostramos que P 2(µ) no es denso en L2(µ).
119
AUTOVALORES MINIMOS DE MATRICES DE MOMENTOS
Para probarlo, usaremos induccion sobre n para mostrar que para cada n tenemos
|Mn| = n+ 2.
Si n = 1, entonces |M1| = 3. Supongamos que el resultado es cierto para n ≤ k.
Entonces, expandiendo el determinante obtenemos que
|Mk+1| = 2|Mk| − |Mk−1| = k + 3.
Puesto que lımn→∞ e0M−1n e∗0 = lımn→∞ |Mn−1|/|Mn| = 1, entonces, por el Corolario
4.1.2 y el Corolario 4.1.8, tenemos que1
z/∈ P 2(µ) y en consecuencia P 2(µ) no es
denso en L2(µ). Este resultado se puede probar utilizando el teorema de Szego (ver
[Con91]).
Observacion 4.1.11. El Teorema 4.1.9 es cierto para medidas con soporte com-
pacto en la recta real. Ademas, las medidas con soporte compacto en R son siem-
pre determinadas (o equivalentemente lımn→∞ λn = 0 por lo visto en [BCI02]) y
P 2(µ) = L2(µ).
Observacion 4.1.12. En el Teorema 4.1.9 no podemos prescindir de la hipotesis de
acotacion del soporte ya que hay medidas con soporte no acotado en la recta real
tal que P 2(µ) = L2(µ) y sin embargo lımn→∞ λn > 0. Dichas medidas son conocidas
como las medidas N -extremales (ver [Rie23]).
Proposicion 4.1.13. Sea µ una medida con soporte compacto en C tal que 0 /∈
Supp(µ). Las siguientes igualdades son equivalentes:
1.∑∞
n=0 |Pn(0)|2 = ∞.
2. P 2(µ) = [1, z,1
z, z2,
1
z2, . . . ].
Donde [1, z,1
z, z2,
1
z2, . . . ] es el cierre del subespacio generado por 1, z, 1
z, z2,
1
z2, . . . .
120
4.1 Aproximacion polinomial en L2(µ) y comportamiento asintotico delautovalor mınimo λn
Demostracion. Sea α > 0 y R > 0 tal que Supp(µ) ⊂ z ∈ C : α ≤ |z| ≤ R.
Probaremos primero que (1) implica (2). Por el Corolario 4.1.8 tenemos que (1)
es equivalente al hecho de que1
z∈ P 2(µ) y, por tanto, P 2(µ) = [
1
z, 1, z, z2, . . . ].
Entonces se tiene que
∫| 1z2
− v01
z− v1 − v2z − · · · − vnz
n−1|2dµ =
∫1
|z|2|1z− v0 − v1z − . . . vnz
n|2dµ
≤ 1
α2dis2(
1
z,Pn[z]).
Tomando ınfimos sobre v0, . . . , vn y n ∈ N tenemos que
dis2(1
z2, P 2(µ)) ≤ 1
α2dis2(
1
z, P 2(µ)).
Procediendo en la misma forma probamos que1
zk∈ P 2(µ) para k ∈ N.
(2) implica (1) es consecuencia del Corolario 4.1.8.
Observacion 4.1.14. La condicion de que 0 /∈ Supp(µ) no puede ser eliminada en la
Proposicion 4.1.13. De hecho, podemos considerar cualquier medida µ, con un atomo
en 0, µ(0) = d > 0, y tal que K = Supp(µ) sea un compacto con interior vacıo y
cuyo complementario en C, Kc, sea conexo. Por el Teorema de Mergelyan (ver por
ejemplo [Gai87]), los polinomios son densos en el espacio de las funciones continuas
sobre K con la norma uniforme y en consecuencia los polinomios son densos en
L2(µ), esto es, P 2(µ) = L2(µ) y por tanto (2) es cierta. Sin embargo, puesto que
M(µ) ≥ M(dδ0) por el Lema 4.1.1
1∑nk=0 |Pk(0)|2
≥ mınv∈Cn
(1 v
)Mn(dδ0)
1
v∗
= d > 0,
y por tanto∞∑k=0
|Pk(0)|2 < ∞.
121
AUTOVALORES MINIMOS DE MATRICES DE MOMENTOS
Terminamos esta seccion con un resultado que relaciona el comportamiento del auto-
valor mınimo λn con la norma de los polinomios monicos en relacion con un resultado
en [BS11]:
Lema 4.1.15. Sea µ una medida con soporte compacto en C. Para cada n ∈ N, sea
Pn(z) =∑n
j=0 vj,nzj el polinomio ortonormal de grado n. Si k ≤ n, entonces
λn ≤ 1∑kj=0 |vj,k|2
.
En particular, λn ≤ ∥Pn(z)∥2.
Demostracion. De la prueba del Lema 4.1.5,
λn ≤∫|p(z)|2dµ
12π
∫ 2π
0|p(eiθ)|2dθ
,
para cualquier polinomio p(z), no nulo y de grado ≤ n. En particular, si aplicamos
la anterior desigualdad a Pk(z) con k ≤ n:
λn ≤ 1∑kj=0 |vj,k|2
≤ 1
v2k,k.
Entonces, puesto que Pn(z) = vn,nPn(z), obtenemos trivialmente que λn ≤ ∥Pn(z)∥2.
Observacion 4.1.16. Si consideramos la matriz de orden (n+1)×(n+1), Bn = (vj,k)
con vj,k como en el Lema 4.1.1 si j ≤ k y vj,k = 0 si j > k, y definimos An = BnB∗n
entonces las entradas a(n)j,k de An son los coeficientes de la funcion nucleo
Kn(z, w) =n∑
k=0
Pk(z)Pk(w) =n∑
j,k=1
a(n)j,k z
jwk,
y del mismo modo que en [BS11] A−1n = Mn.
Observacion 4.1.17. En general, incluso para matrices de momentos, no es cierto
que lımn→∞ λn = lımn→∞ ∥Pn(z)∥2. Para mostrar esto es suficiente considerar el
122
4.2 Resultados relacionados para medidas en D
ejemplo 2 en la observacion 4.1.10. Para esta matriz de Toeplitz M , tenemos que
lımn→∞ λn = 0 y sin embargo,
lımn→∞
∥Pn(z)∥2 = lımn→∞
1
enM−1n e∗n
= lımn→∞
|Mn||Mn−1|
= 1 = 0.
Observacion 4.1.18. Hacemos la observacion de que en el caso de matrices M HDP
de Toeplitz, debido a que e0M−1n e∗0 = enM
−1n e∗n, se tiene
∥Pn(z)∥2 =1∑n
k=0 |Pk(0)|2,
y por tanto,
lımn→∞
∥Pn(z)∥2 = lımn→∞
1∑nk=0 |Pk(0)|2
.
4.2. Resultados relacionados para medidas en D
Consideramos medidas µ con infinito soporte en el disco unidad cerrado D. En este
caso ∥Pn + 1(z)∥ ≤ ∥Pn(z)∥ para todo n ∈ N. De hecho, por la propiedad extremal
de los polinomios monicos tenemos:
∥Pn + 1(z)∥2 ≤ ∥zPn(z)∥2 ≤ ∥Pn(z)∥2,
y por tanto lımn→∞ ∥Pn(z)∥ existe.
Podemos descomponer estas medidas µ en D como µ = η + ν donde η = µ/D y ν =
µ/T. Denotaremos por Pn(z;µ) y Pn(z; ν) los polinomios monicos correspondientes
a las medidas µ y ν, respectivamente. Probaremos que el comportamiento asintotico
de la norma de los polinomios monicos en D depende del comportamiento en T:
Proposicion 4.2.1. Sea µ una medida con infinito soporte en D y supongamos que
ν = µ/T tiene infinito soporte en T. Entonces:
lımn→∞
∥Pn(z;µ)∥ = lımn→∞
∥Pn(z; ν)∥.
123
AUTOVALORES MINIMOS DE MATRICES DE MOMENTOS
Demostracion. Puesto que Mn(ν) ≤ Mn(µ), tenemos vMn(ν)v∗ ≤ vMn(µ)v
∗. Enton-
ces
∥Pn(z; ν)∥2 = ınfv∈Cn
(v 1
)Mn(ν)
v∗
1
≤ ınfv∈Cn
(v 1
)Mn(µ)
v∗
1
= ∥Pn(z;µ)∥2.
Como consecuencia,
lımn→∞
∥Pn(z; ν)∥ ≤ lımn→∞
∥Pn(z;µ)∥.
Por tanto, si lımn→∞ ∥Pn(z;µ)∥ = 0, entonces lımn→∞ ∥Pn(z; ν)∥ = 0.
Por otro lado, supongamos que lımn→∞ ∥Pn(z;µ)∥ = c > 0. Puesto que la sucesion
∥Pn(z;µ)∥∞n=0 es no creciente, entonces ∥Pn(z;µ)∥ ≥ c para cada n ∈ N. Sea n fijo
y sea p(z) = zn + a1zn−1 + · · · + an cualquier polinomio monico de grado n. Si
Qk(z) = zkp(z), es un polinomio monico de grado n + k, por la propiedad extremal
de los monicos tenemos:
∫D|zkp(z)|2dη +
∫T|p(z)|2dν =
∫D|z|2k|p(z)|2dµ ≥ ∥Φn+k(z;µ)∥2 ≥ c2.
Tomando lımites cuando k → ∞, teniendo en cuenta que zkp(z) converge puntual-
mente a 0 en D, por el teorema de la convergencia dominada de Lebesgue:∫T|p(z)|2dν ≥ c2.
En consecuencia ∥Pn(z; ν)∥ ≥ c y tomando lımites cuando n → ∞ se sigue que
lımn→∞ ∥Pn(z; ν)∥ ≥ c. Por tanto,
lımn→∞
∥Pn(z; ν)∥ = lımn→∞
∥Pn(z;µ)∥
como querıamos ver.
En el siguiente resultado probamos un resultado analogo para el autovalor mınimo
de las secciones finitas de matrices de momentos.
124
4.2 Resultados relacionados para medidas en D
Proposicion 4.2.2. Sea µ una medida con infinito soporte en D, y sea ν = µ/T. Si
M(µ) y M(ν) son las matrices de momentos asociadas a µ y a ν, respectivamente,
entonces:
lımn→∞
λn(M(µ)) = lımn→∞
λn(M(ν)).
Demostracion. Como en la Proposicion 4.2.1 tenemos que Mn(ν) ≤ Mn(µ) para todo
n ∈ N. En consecuencia:
lımn→∞
λn(M(ν)) ≤ lımn→∞
λn(M(µ)).
Ademas, si lımn→∞ λn(M(µ)) = 0 entonces lımn→∞ λn(M(ν)) = 0. Supongamos
ahora lımn→∞ λn(M(µ)) = C > 0 para algun C > 0. Entonces, si η = µ/D, por
Lema 4.1.5, tenemos:∫D|p(z)|2dµ =
∫D|p(z)|2dη +
∫T|p(z)|2dν ≥ C
∫T|p(z)|2dm,
siendo p(z) un polinomio. Fijamos p(z), y consideramos el polinomio znp(z) entonces:
∫D|znp(z)|2dµ =
∫D|znp(z)|2dη +
∫T|p(z)|2dν ≥ C
∫T|p(z)|2dm.
De nuevo, procedemos como en la Proposicion 4.2.1, tomando lımites cuando n → ∞
tenemos
lımn→∞
∫D|znp(z)|2dη = 0,
de aquı que, ∫T|p(z)|2dν ≥ C
∫T|p(z)|2dm.
Entonces lımn→∞ λn(M(ν)) ≥ C, y por tanto,
lımn→∞
λn(M(ν)) = lımn→∞
λn(M(µ)).
125
AUTOVALORES MINIMOS DE MATRICES DE MOMENTOS
Observacion 4.2.3. No hay analogo del comportamiento asintotico del n-nucleo en
el 0. Para ver esto, consideramos una medida ν en T, que satisface que L2(ν) = P 2(ν),
por ejemplo una medida con soporte igual a una cantidad infinita de puntos atomicos
zn∞n=1 con pesos pn > 0 para n ≥ 0 tal que∑
n≥0 pn < ∞ y lımn→∞ zn = z0. Por
el teorema de Mergelyan (ver p.e. [Gai87]) los polinomios son densos en el espacio
de las funciones continuas en Supp(ν) = zn : n ∈ N ∪ z0 con la norma del
supremo, y por tanto P 2(ν) = L2(ν). Esto implica que1
z∈ P 2(ν) y por el Corolario
4.1.8, se sigue que∑∞
k=0 |Pn(0; ν)|2 = ∞. Consideramos ahora la medida µ = ν+dδ0
donde dδ0 es la medida con masa d concentrada unicamente en el punto 0 y las
sucesiones de polinomios Pn(z; ν)∞n=0 y Pn(z;µ)∞n=0. Para cada n ∈ N tenemos
Mn(µ) ≥ Mn(dδ0), y ademas por el Lema 4.1.1 tenemos:
1∑nk=0 |Pn(0;µ)|2
= mın(1 v
)Mn(µ)
1
v∗
: v ∈ Cn ≥
mın(1 v
)Mn(dδ0)
1
v∗
: v ∈ Cn = d.
Por tanto∞∑n=0
|Pn(0;µ)|2 ≤1
d< ∞.
Terminamos la seccion con varios resultados que relacionan la densidad polinomial
con el comportamiento de asintotico de los polinomios monicos y el de los n-nucleos:
Proposicion 4.2.4. Sea µ una medida con soporte en D y con Supp(µ/T) infinito,
tal que P 2(µ) = L2(µ). Entonces:
lımn→∞
∥Pn(z;µ)∥ = 0.
Demostracion. Supongamos que L2(µ) = P 2(µ). Entonces, si ν = µ/T tenemos que
L2(ν) = P 2(ν). Combinando el Lema 4.1.7 y la Obsevacion 4.1.18, se sigue que
0 =1∑∞
n=0 |Pn(0; ν)|2= lım
n→∞∥Pn(z; ν)∥2.
126
4.2 Resultados relacionados para medidas en D
Finalmente, por la Proposicion 4.2.1, tenemos:
lımn→∞
∥Pn(z;µ)∥2 = lımn→∞
∥Pn(z; ν)∥2 = 0.
Observacion 4.2.5. El recıproco de este resultado no es cierto. Es suficiente consi-
derar la medida de Lebesgue η en D. Entonces,
∥Pn(z)∥2 = mın(w 1
)Mn(η)
w∗
1
: w ∈ Cn =π
n+ 1
y lımn→∞ ∥Pn(z)∥2 = 0. Si embargo L2(η) = P 2(η), puesto que P 2(η) consiste en
todas las funciones analıticas∑∞
n=0 anzn tales que
∑∞n=0
|an|2n+1
< ∞.
127
Capıtulo 5
CONCLUSIONES Y LINEAS
FUTURAS DE INVESTIGACION
En este trabajo se ha abordado el estudio de medidas de equilibrio asociadas a
un sistema de semejanzas contractivas en el plano complejo a traves de las matrices
de momentos y de Hessenberg asociadas a estas medidas. Este enfoque matricial
ha permitido definir transformaciones tanto para matrices de momentos como pa-
ra matrices de Hessenbeg que trasladan propiedades de las medidas a ecuaciones
matriciales partiendo del SFI asociado a la medida.
En el capıtulo 2 se ha formalizado un teorema de punto fijo para matrices que
permite aproximar la matriz de momentos de la medida. Estos resultados han si-
do publicados en revistas incluidas en el Journal Citation Report(JCR), [EST06] y
[EST07], y citados en un trabajo posterior [JKS11], que avalan la investigacion y que
ponen de manifiesto que el marco teorico general en el que se formulan estos trabajos
tiene mucho interes para la comunidad cientıfica y en particular para aquellos que se
dedica al analisis sobre fractales. Otros resultados no incluidos en esta tesis relacio-
nados con este area se encuentran en [ER99] pero desde una perspectiva totalmente
distinta.
129
CONCLUSIONES Y LINEAS FUTURAS DE INVESTIGACION
Las nuevas expresiones recurrentes y explıcitas de los momentos de medidas au-
tosemejantes y en particular de la convolucion infinita de Bernoulli obtenidas en el
capıtulo 2, pueden ser analizadas en profundidad para obtener propiedades y quizas
responder a cuestiones sobre estas medidas que aun permanecen abiertas despues de
mas de 70 anos de estudio. Por otra parte, los resultados de este capıtulo permiten
obtener los polinomios ortogonales para medidas autosemejantes.
Asimismo, tambien nos proponemos explorar las transformaciones de matrices de
momentos para SFI mas generales formados por otro tipo de aplicaciones contracti-
vas.
Las formulas obtenidas en el capıtulo 2 de la inversa de una matriz triangular,
se pueden aplicar a cualquier formula recursiva, por tanto un trabajo interesante
a desarrollar serıa aplicar a la formula de recurrencia de los polinomios la misma
estrategia para explorar nuevas expresiones de estos en funcion de los coeficientes de
recurrencia. Por otro lado estas formulas tambien pueden ser aplicadas para calcular
la matriz, (T ∗)−1 en (1.2), cuyas columnas son los coeficientes de los polinomios
ortonormales respecto de la base canonica.
En relacion a los resultados del capıtulo 3, se han desarrollado algoritmos para
calcular la matriz de Hessenberg de una suma de medidas en el plano y tambien para
la obtencion de la medida autosemajante asociada a un SFI. Estos resultados han
sido publicados en revistas incluidas en el Journal Citation Report(JCR) [EGST11]
[EGST11b]. Nos proponemos profundizar en el analisis del comportamiento de la
matriz resultante en funcion de las medidas componentes, ası como la asintotica de
los polinomios para medidas mas generales que las medidas asociadas a shifts con
pesos.
En el capıtulo 4 se ha demostrado que en el caso de medidas con soporte com-
pacto en C, el comportamiento asintotico del autovalor mınimo de las secciones de
la matriz de momentos, esta relacionado con el problema de aproximacion por poli-
130
nomios, esto es, determinar cuando P 2(µ) = L2(µ), donde P 2(µ) es el cierre de P[z]
en L2(µ). Concretamente si los polinomios asociados son densos en L2(µ) entonces
necesariamente el autovalor mınimo de las secciones finitas de la matriz de momentos
de la medida tiende a cero. En este capıtulo se han obtenido resultados comparando
los problemas de minimizacion de la norma de los polinomios monicos, los n-nucleos
y el autovalor mınimo para medidas en el disco unidad. Estos resultados han sido
publicados en una revista incluida en el Journal Citation Report(JCR)[EGT11]. En
algunos de estos resultados la restriccion de la medida a la circunferencia unidad
tiene un caracter dominante y estamos interesados en explorar medidas con soportes
acotados mas generales, para ello podemos utilizar los resultados sobre transforma-
ciones de momentos que hemos estudiado en el capıtulo 2. Recientemente, en [BD06]
se ha caracterizado el ındice finito de determinacion de orden k de una medida en
terminos del comportamiento de los k menores autovalores de las secciones de la
matriz de Hankel asociada a dicha medida, uno de nuestros objetivos es obtener una
interpretacion de estos resultados en el caso hermitiano.
131
Bibliografıa
[AS72] M. Abramowitz and I. A. Stegun, Handbook of Mathematical Functions,
Dover, New York, 1972.
[Aki65] N. I. Akhiezer, The Classical Moment Problem, Oliver and Boyd, London,
1965.
[Atz75] A. Atzmon, A Moment Problem for Positive Measures on the Unit Disc,
Pacific J. Math. 59 (1975), pp. 317–325.
[Bar93] M. F. Barnsley, Fractals Everywhere. Academic Press, Cambridge, MA,
1993.
[BC04] B. Beckermann and M. Castro, On the determinacy of complex Jacobi
matrices. Math. Scand. 95 (2) (2004) pp. 285–298.
[BCR84] C. Berg, J.P.R. Christensen and P. Ressel, Harmonic Analysis on
Semigroups. Theory of Positive Definite and Related Functions, Graduate Texts
in Mathematics 100, Springer-Verlag, Berlin-Heidelberg-New York, 1984.
[BM84] C. Berg, P. Maserick, Exponentially bounded positive definite functions,
Illinois J. Math. 28 (1984) 162–179.
[BCI02] C. Berg, Y. Chen, M.E.H. Ismail, Small eigenvalues of large Hankel
matrices: The indeterminate case, Math. Scand. 91 (2002) 67–81.
133
BIBLIOGRAFIA
[BD06] C. Berg, A. J. Duran, Orthogonal polynomials and analytic functions
associated to positive definite matrices, J. Math. Anal. Appl. 315 (2006) 54–67.
[BS11] C. Berg, R. Szwarc, The smallest eigenvalue of Hankel matrices, Cons-
tructive Approximation 34 (2011) 107-133.
[Bot94] A. Bottcher, Infinite Matrices and Projection Methods, Lectures on Ope-
rator Theory and its Applications (Waterloo, ON, 1994), Fields Institute Mo-
nographs, Vol. 3, American Mathematical Society, Providence, RI, 1996.
[Blu898] O. Blumenthal, Uber dieEntwicklung einen willkurlichen Funktion nach
der Kettenbruches fur∫ 0
∞φ(ξ)dξ
z − ξ, Thesis, U. Gottingen, 1898.
[Bra55] J. Bram Subnormal Operators, Duke Math. J 22 (1955), 75-94.
[Bre80] C. Brezinski, Pade-Type Approximation and General Orthogonal Polyno-
mials, Birkhauser, Basel, 1980.
[Chi78] T. S. Chihara, An Introduction to Orthogonal Polynomials, vol. 13 of Mat-
hematics and its Applications, Gordon and breach, New York, 1978.
[Con85] J. B. Conway, A Curse in Functional Analysis, Graduate Texts in Mat-
hematics, 96 Springer-Verlag, New York, 1985.
[Con91] J. B. Conway , The Theory of Subnormal Operator.Mathematical Surveys
and Monographs, 36 Amer. Math. Soc., Providence, Rhode Island, 1991.
[Dom78] J. Dombrowski, Quasitriangular Matrices, Proceedings of de AMS, 69,
1978
[Dom80] J. Dombrowski, Spectral Properties of Real Parts of Weighted Shift Ope-
rators, Indiana University Mathematics Journal, 29, 1980.
134
BIBLIOGRAFIA
[Dom84] J. Dombrowski, Tridiagonal matrix representations of cyclic self-adjoint
operators, Pacific Journal of Mathematics,114, 1984.
[Dom85] J. Dombrowski, Tridiagonal matrix representations of cyclic self-adjoint
operators. II, Pacific Journal of Mathematics, 120, 1985
[DN86] J. Dombrowski and P. Nevai, Orthogonal polynomials and recurrence
relations, Siam. J. Math. Anal., 17, 1986.
[Dom87] J. Dombrowski, Cyclic operators, commutators and absolutely continuous
measures, Proceedings of de AMS, 100, 1987.
[Erd39] P. Erdos, On a family of symmetric Bernoulli convolutions, Amer. J.
Math., 61 (1939), pp. 974–976.
[Erd40] P. Erdos, On smoothness properties of a family Bernoulli convolutions,
Amer. J. Math., 62 (1940), pp. 180-186.
[Edg98] G. A. Edgar, Integral, Probability and Fractal Measures, Springer-Verlag,
New York, (1998)
[EGK92] S. Elhay, G. H. Golub and J. Kautsky, Jacobi matrices for sums of
weight functions, BIT 32 (1992) 143–166.
[ER99] C. Escribano and M. Reyes, Analysis of Functions Defined on Fractal
Sets, Fractals, 7 n2 (1999), pp. 197 – 204.
[EST03] C. Escribano, M. A. Sastre and E. Torrano, Moments of infinite
convolutions of symmetric Bernoulli distributions, J. Comput. Appl. Math., 153
(2003), pp. 191–199.
[EST06] C. Escribano, M. A. Sastre and E. Torrano, Moment matrix of
self-similar measures, Electronic Transactions on Numerical Analysis (ETNA),
24 (2006), 79-87
135
BIBLIOGRAFIA
[EST07] C. Escribano, M.A. Sastre and E. Torrano, A fixed point theorem
for moment matrices of self-similar measures, J. Comput. Appl. Math., 207 n2
(2007), pp. 352 – 359.
[EGST11] C. Escribano, A. Giraldo, M. A. Sastre and E. Torrano, Com-
puting the Hessenberg matrix associated with a self-similar measure, Journal of
Approximation Theory, 163, (2011), pp. 49 – 64.
[EGST11b] C. Escribano, A. Giraldo, M. A. Sastre and E. Torrano,
Hessenberg matrix for sums of Hermitian positive definite matrices and weighted
shifts, Journal of Computational and Applied Mathematics, 236 (2011), pg. 98-
106.
[EGT11] C. Escribano, R. Gonzalo and E. Torrano, Small eigenvalues of
large Hermitian moment matrices, Journal of Mathematical Analysis and Ap-
plications, 374 n 2(2011), pp. 470 – 480.
[Fal90] K. J. Falconer, Fractal Geometry, John Wiley and Sons, New York, 1990.
[Fal97] K. J. Falconer, Techniques in Fractal Geometry, John Wiley and Sons,
Chichester, 1997.
[Fis95] H. J. Fischer, On the paper “asymptotics for the moments of singular
distributions”, J. of Approx. Theory, 82 (1995), pp. 362–374.
[Fre61] G. freud, Orthogonal polynomials, Consultants Bureau, New York, 1961.
[Gai87] D. Gaier, Lectures on complex approximation, Birkhauser, Boston, 1987.
[Gar62] A. Garsia, Arithmetic properties of Bernoulli convolutions, Trans. Amer.
Math. Soc., 102 ,(1962), pp. 409-432.
[Gar63] A. Garsia, Entropy and singularity of infinity convolutions, J. Math., 13
(1963), pp. 1159–1169.
136
BIBLIOGRAFIA
[Gau82] W. Gautschi, On generating orthogonal polynomials, SIAM J. Sci. Statist.
Comput., 3 (1982) 289–317.
[GW93] W. Goh and J. Wimp, Asymptotics for the moments of singular distri-
butions, J. Approx. Theory, 74 (1993), pp. 301–334.
[GV96] G. H. Golub and F. Van Loan, Matrix computations, Johns Hopkings
University Press, 1996.
[GS55] U. Grenander, G. Szego, Toeplitz forms and their applications. Chelsea
Publishing Company, New York, 1955.
[GT93] R. Guadalupe and E. Torrano , On the moment problem in the boun-
ded case, J. Comput. Appl. Math., 49 n2 1-3 (1993), pp. 263–269.
[Hal84] P.R. Halmos, A Hilbert Space Problem Book, Springer Verlag, New York,
1984.
[HOS11] S. M. Heiman, P. Owrutsky and R. S. Strichartz, Orthogonal Poly-
nomials with Respect to Self-Similar Measures, Experiment. Math. 20 (2011),
no. 3, 238-259.
[Hu97] T. J. Hu, The local dimension of the Bernoulli convolution associated with
the golden number, Trans. Amer. Math. Soc., 349 (1997), pp. 2917–2940.
[Hut81] J. Hutchinson, Fractal and self-similarity, Indiana Univ. Math. J., 30
(1981), pp. 713–747.
[JW35] B. Jessen and A. Wintner, Distribution functions and the Riemann zeta
function, Trans. Amer. Math. Soc., 38 (1935), pp. 48–88.
[Jar01] H. Jarchow, Special Operators on Classical Banach Spaces of Analytic
Funntions Extrct. Mathematicae. 19 (1) pp. 21–3, 2001.
137
BIBLIOGRAFIA
[JKS11] P. Jorgensen,K. Kornelson and K. Shuman, Iterated function
systems, moments, and transformations of infinite matrices, Memoirs of the
American Mathematical Society, vol. 213 , n 1003.(2011)
[JKS07] P. Jorgensen and K. Shuman, Harmonic Analysis of Iterated Function
Systems with Overlap, Journal of Mathematical Physics, vol. 48 (2007), no. 8,
083511.
[Lan87] H. J. Landau, Classical background of the moment problem, Moments in
mathematics, Proc. Sympos. Appl. Math., vol. 37 (1987), pp. 1-15.
[Man77] B. B. Mandelbrot, The fractal geometry of nature, W. H. Freeman &
Co., San Francisco, 1977.
[Ma96] G. Mantica, A stable technique for computing orthogonal polynomials and
jacobi matrices associated with a class of singular measures, Contr. Approx., 12
(1996), pp. 509–530.
[Ma00] G. Mantica, On computing Jacobi matrices associated with recurrent and
Mobius iterated function systems, J. Comp. Appl. Math. 115 (2000) 419–431.
[Mat95] P. Mattila, Geometry of Sets and Measures in Euclidean Spaces, Cam-
bridge University Press, 1995.
[Mer03] R. Merris, Combinatorics, Wiley , Wiley Series in Discrete Mathematics
and Optimization, 67, (2003).
[PS96] Y. Peres and B. Solomyak, Absolute continuity of bernoulli convolutions,
a simple proof, Math. Research Letters, 3 (1996), pp. 231–239.
[Rak83] E. A. Rakhmanov, On the asymtotics of the ratio of orthogonal polyno-
mials II, Math. USSR Sbornik, 46, 1983.
138
BIBLIOGRAFIA
[Rak87] E. A. Rakhmanov, On the asymtotics of of polynomials orthogonal on the
unit circle with weights not satisfying Szego’s condition, Math. USSR Sbornik,
46, 1983.
[Rie23] M. Riesz, Sur le probleme des moments et le theoreme de Parseval corres-
pondant, Acta Litt. Ac. Sci. Szeged. 1 (1923) 209-225.
[Sal44] , R. Salem, A remarkable class of algebraic integers. Proof of a conjecture
of Vijayaraghavan, Duke Math. J., 11, 1944
[Sas03] M. A. Sastre, Medidas autosemejantes con solapamiento: dimension, mo-
mentos y aproximacion, Tesis doctoral, Universidad Politecnica de Madrid, Ma-
drid, 2003.
[Sch94] A. Schief, Separation properties for self-similar sets., Proc. Amer. Math.
Soc., pages 111–115, 1994.
[ST43] J.A. Shohat, J.D. Tamarkin, The Problem of moments, Mathematical
Surveys, vol 1, Amer. Math. Soc., New York, 1943.
[Sim05] B. Simon, Orthogonal polynomials on the unit circle. Part 1: Classical
Theory, Amer. Math. Soc. Colloq. Publ. 54. Part 1, AMS, Providence, RI, 2005.
[Sol98] B. Solomyak, Measure and dimension for some fractal families, Math.
Proc. Cambridge Phil. Soc., 124 (1998), pp. 531–546.
[Sta66] J. G. Stampfli,Which Weighted Shifts are Subnormal, Pacific J. Math. 17
(1966) 367–379.
[Sto32] M. H. Stone, Linear Transformations in Hilbert Space and their applica-
tions to analysis, AMS Colloquium publications, 15 American Mathematical
Society, Providence, 1932.
139
BIBLIOGRAFIA
[Sza81] F.H. Szafraniec, Boundedness of the shift operator related to definite
positive forms: an application to moment problem, Ark. Math. 19 (1981) 251–
259.
[Sze36] G. Szego, On some Hermitian forms associated two given curves of the
complex plane, Trans. Amer. Math. Soc. 40 (1936) 450-461.
[Sze75] G. Szego, Orthogonal Polynomials, vol. 32 of AMS Colloquium publica-
tions, American Mathematical Society, Providence, RI, 1975.
[Tom04] V. Tomeo, Subnormalidad de la matriz de Hessenberg asociada a los poli-
nomios ortogonales en el caso hermitiano. Tesis doctoral. UPM, 2004.
[Tor87] E. Torrano, Interpretacion matricial de los polinomios ortogonales en el
campo complejo Tesis doctoral, Universidad de Cantabria, Santander 1987.
[TT11] V. Tomeo and E. Torrano, Two applications of the subnormality of the
Hessenberg matrix related to general orthogonal polynomials, Linear Algebra and
its Applications, 435, n 9, (2011) pp. 2314-2320.
[Ass93] W. Van Assche, Analytic aspects of orthogonal polynomials. Katholieke
Universiteit Leuven, 1993.
[Ass97] W. Van Assche, Orthogonal Polynomials in the Complex Plane and on
the real line, Fields Inst. Commun. 14 (1997) 211-245.
[Ass10] W. Van Assche, Orthogonal polynomials and approximation theory: some
open problems in Recent Trends in Orthogonal Polynomials and Approximation
Theory eds. J. Arvesu, F. Marcellan, A. Martınez-Finkelshtein, Contemporary
Mathematics 507 (2010), 287-298.
[WW66] H. Widom and H. Wilf, Small eigenvalues of large Hankel matrices,
Proc. Amer. Math. Soc. 17 (1966) 338-344.
140
Top Related