Post on 22-Sep-2018
Universidad Central de Venezuela
Facultad de Ciencias
Escuela de Matematicas
Una Introduccion a la Geometrıa Estocastica y los
Procesos de Partıculas Aleatorias.
Trabajo Especial de Grado presentado ante la
ilustre Universidad Central de Venezuela por el
Br. Jose Gregorio Gomez Garcıa, para optar al
tıtulo de Licenciado en Matematica.
Tutor: Dr. Gabriel Padilla.
Caracas, Venezuela
Febrero 2009
I
Nosotros, los abajo firmantes, designados por la Universidad Central de Venezuela
como integrantes del Jurado Examinador del Trabajo Especial de Grado titulado ”Una
introduccion a la Geometrıa Estocastica y los Procesos de Partıculas Aleatorias”,
presentado por el Br. Jose Gregorio Gomez Garcıa. titular de la Cedula de Identidad
V-17.457.212, certificamos que este trabajo cumple con los requisitos exigidos por nuestra
Magna Casa de Estudios para optar al tıtulo de Licenciado en Matematica.
Dr. Gabriel Padilla
Tutor
Dra. Mairene Colina
Jurado
M.Sc. Tomas Guardia
Jurado
Dedicatoria
Hay personajes a quienes les dedico mi esfuerzo, mi desempeno y mi dıa a dıa, el
principal de ellos es el que me ayuda a tener noches tranquilas, despertares bonitos
todos los dıas, paz y amor puro y sincero. Este personaje es justamente Dios, quien me
acompana en todo momento.
A mi madre, Magalys, por todas sus atenciones y sacrificios de su vida solo por el
desarrollo de mi persona y mis hermanos, a mi padre Alfredo y mis hermanos, Alfredo
A. y Dionelys porque de una u otra forma estan a mi lado siempre, a mi tıa Maura, la que
mas quiero de mis tıos y tıas, por ser la que tiene el corazon mas grande de mi familia.
A la mujer que me ha sacado las tres unicas canas que tengo en lo que llevo de vida, la
que me ha tenido algo de paciencia, la que mas me ha esperado, la que se ha ganado mi
confianza y afecto, y la que me ha motivado e inspirado mas a prosperar y desarrollarme,
mi novia Gabriela Da Silva.
Finalmente, mi dedicatoria a dos personas que siempre marcaran mi ninez por las
infinitas alegrıas que pase con ellos y que aun paso, como en este momento, pues
aunque no esten fisicamente, si lo estan en alma, mis abuelos Julio (1932 − 1992) e Irene
(1937 − 2009) (Q.E.P.D).
Que Dios bendiga este y todos los
dias de nuestras vidas.
Agradecimientos
Mis mayores agradecimientos a Dios porque siempre ha estado conmigo, dandome luz
en el camino.
Al Prof. Gabriel Padilla por haberme presentado estas ideas de “Geometrıa Es-
tocastica” y por permitirme trabajar con el en dichas ideas. A la Prof. Mairene Colina
por sus utiles observaciones y correcciones en la parte de Probabilidades en mi Semi-
nario I, mis estudios para este trabajo y su apoyo incondicional en todo momento para
que yo lograra esta meta, a la Prof. Cristina Balderrama por sus consejos y correcciones
en la seccion de Teorıa de la Medida y al Prof. Jose G. Mijares que siempre ha estado a
disposicion para mis trabajos.
A Ruth Leon y Harrison Garcıa porque me apoyaron en el momento mas oportuno
para lograr iniciar mis estudios universitarios de matematicas, a mis estimados Sr. Cesar
Da Silva y Sra. Irma Lozada por brindarme alojamiento en su casa para trabajar, donde
siempre estaba acompanado de un buen consejo maternal por parte de la Sra. Irma,
a mis amigos y panas Luis Manfredonia, Nunzia Colella, Andres Contreras, Brenda
Gomez, Alejandra Ruız, Roberto Morillo, Karelys Medina, Sohar Carrillo, Luis Rivas y
su Dual, Daniel, Luis Jose Gonzalez, Omar Sulbaran, Omar Ortız, Prof. Andres Perez,
Ricardo Franquiz y Jocer Franquiz que siempre estuvieron atentos de mis actividades en
la licenciatura, brindandome ideas y consejos.
A mi companera del CGGA, Adriana Padron, que siempre estuvo allı al lado dandome
latigazos para que trabajara mas rapido y con soluciones oportunas bajo de la manga.
A mi pana, amiga y companera de madrugadas de estudios en red, Mariana Garcıa,
responsable directo que desperto mi curiosidad por trabajar topicos de Geometrıa
Estocastica y la persona que siempre me apoyaba y continua apoyandome en cualquier
proyecto que me proponga. Personas que de una u otra forma han influenciado en mi dıa
a dıa de trabajo, como mis otros companeros del CGGA, al Prof. Tomas Guardia, Jonathan
Otero y Julian Rojas.
A todos Gracias.
Una Introduccion a la Geometrıa Estocastica y los
Procesos de Partıculas Aleatorias
Br. Jose Gregorio Gomez Garcıa
Febrero 2009
INDICE
Introduccion 0
1. Preliminares 1
1.1. Fibrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Construccion de Fibrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3. Ejemplos: Fibrado Tangente . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.1. Fibrado de una superficie simple. . . . . . . . . . . . . . . . . . . . . 5
1.3.2. Fibrado de una superficie . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.3. Representacion geometrica de un espacio fibrado . . . . . . . . . . . 8
2. Medidas Aleatorias y Procesos Puntuales 10
2.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2. Procesos Estocasticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3. Caminatas Aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.4. Cadenas de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.5. Teorema de Caratheodory y la medida de Conteo . . . . . . . . . . . . . . . 23
2.5.1. Teorema de Caratheodory . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.5.2. La medida de contar . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.6. Medidas Aleatorias y Procesos Puntuales . . . . . . . . . . . . . . . . . . . . 30
2.7. Conjunto Cerrado Aleatorio . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3. Medida de Hausdorff 42
3.1. Construccion de Caratheodory en un espacio metrico . . . . . . . . . . . . . 42
3.2. Construccion de la medida de Hausdorff . . . . . . . . . . . . . . . . . . . . 44
I
INDICE II
3.3. Propiedades de la medida de Hausdorff . . . . . . . . . . . . . . . . . . . . . 46
3.4. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
4. Tangencia Conica y Rectificabilidad 50
4.1. Tangencia Conica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.1.1. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.1.2. Diferenciabilidad Relativa . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.2. k-Tangencia Conica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.2.1. k-Diferenciabilidad Aproximada . . . . . . . . . . . . . . . . . . . . . 60
4.3. Teorema de la Tangencia Conica . . . . . . . . . . . . . . . . . . . . . . . . . . 60
4.3.1. Funcion Lipschitz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
4.3.2. Conjuntos Rectificables . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5. Fibrados Aleatorios 63
5.1. Procesos de Partıculas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.2. Procesos Fibrados y Sistemas de superficies . . . . . . . . . . . . . . . . . . . 67
5.3. Modelos Geometricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
5.3.1. Procesos de lıneas (por el orıgen) finitas en el plano . . . . . . . . . . 72
5.3.2. Proceso de lıneas finitas en el plano . . . . . . . . . . . . . . . . . . . 73
5.3.3. Fibrado de un Sistema Fibrado en R2 . . . . . . . . . . . . . . . . . . 74
5.3.4. Fibrado de Procesos Puntuales . . . . . . . . . . . . . . . . . . . . . . 76
Bibliografıa 79
Introduccion
En los anos 1700, el naturalista, botanico, matematico, biologo y escritor frances,
Georges Louis Leclerc, mejor conocido como el conde de Buffon (1707 - 1788) plateo y
resolvio el problema que hoy lleva su nombre, “El Problema de Buffon”, que consistıa en
calcular la probabilidad de que al lanzar una aguja en un tablero de ajedrez este cruce
una de las lıneas horizontales del tablero. La solucion a este problema esta estrictamente
relacionado con la geometrıa de los objetos en estudio. Esto da origen a nuevas ramas
como Geometrıa Integral y Probabilidad Geometrica, desarrollados por Gustav Herglotz
(1881-1953), Wilhelm Eugen (1885-1962) y Luis Santalo, que junto a la Teorıa de
Conjuntos Aleatorios estudiados por David Kendall (1918-2007) y Georges Matheron
(1930-2000), se desarrolla esta rama de las matematicas, llamada Geometrıa Estocastica.
Este trabajo tiene como objetivo describir la teorıa de fibrados topologicos a proce-
sos fibrados(procesos de curvas) y procesos puntuales, y hacer notar la diferencia en-
tre “Fibra Topologica” y “Fibra” como partıcula compacta, como se muestra en la obser-
vacion 5.3.2. Para ello se realiza un breve estudio de las cadenas de Markov y caminatas
aleatorias para ser utilzados como ejemplos a lo largo de todo el trabajo, y la construccion
de los procesos puntuales en general para luego generalizarlas a espacios donde los ob-
jetos aletorios no necesariamente son “partıculas” puntuales. Para llegar a esta general-
izacion se necesita una funcion que pueda medir estos objetos, esta funcion es la Medida
de Hausdorff, que se caracteriza por medir objetos bastante irregulares como trayectorias
fractales, etc.
La Teorıa de Fibrados que particularmente es usada, es la de los Fibrados Tangentes
ya que los objetos aletorios son “casi” diferenciables en casi todos sus puntos, lo cual
es demostrado a traves de los conceptos de Tangencia Conica, Funciones Lipschitz,
Rectificabilidad y Diferenciabilidad Aproximada.
Tambien se introduce la definicion de “Procesos de Partıculas”, que consiste en
conjuntos compactos no vacıos en un espacio Polaco y que se comportan como procesos
puntuales en dicho espacio. Finalmente se muestra mediante algunas corridas en Matlab
ejemplos de procesos de partıculas, en particular “fibras”, que no tienen ninguna relacion
con la definicion de Fibra como miembro de la cuadrupla de un fibrado topologico, el
cual se presta mucho a confusion por los lectores de textos de geometrıa estocastica, las
cuales son aclaradas en las definiciones 1.1.1, 5.2.2 y la observacion 5.3.2.
CAPITULO 1
Preliminares
En este capıtulo se da un breve embozo sobre de la teorıa de fibrados topologicos,
fundamental para el objetivo de este trabajo. Se da la definicion, construccion, condicion
necesaria y suficiente para la existencia de fibrados, y se trata un ejemplo particular de
fibrados, el fibrado tangente, con la intencion de explicar con mas claridad la construccion
de los fibrados, ademas porque este tipo de fibrado es el usado para caracterizar los
procesos fibrados y procesos de superficies.
1.1. Fibrados
Un fibrado es una generalizacion de un espacio producto. El estudio de dos espaciosXy Y con una funcion f : X −→ Y es equivalente al estudio del espacio producto X×Y,
sus proyecciones en X y Y, y la grafica de f . Vease figura 1.1.
Los problemas conectados con fibrados son diversos. Por ello, el de interes en este
trabajo es estudiar la existencia de los mismos.
Definicion 1.1.1. Un fibrado es una cuadrupla ξ = (E, π, B, F) donde
1. E, B, F son espacios topologicos, llamados Techo, Base o Espacio Cociente y Fibra
respectivamente.
2. π : E −→ B es una funcion continua y sobreyectiva.
3. Para cada punto e ∈ E existe un entorno abierto U de b donde b = π(e), tal que
π−1(U) es homeomorfo a U × F mediante el homeomorfısmo α que satisface:
1
1.1 Fibrados 2
Figura 1.1: Equivalencia del estudio de una funcion y su respectiva grafica
U × F
U
π−1(U)
PR1
α
π
?
-
@@
@@R
π(α(u, z)) = u, para todo u ∈ U. Al conjunto U × F se le llama carta fibrada.
Dado un fibrado ξ = (E, π, B, F), sea Γ = Uii∈I un cubrimiento abierto de B. A los
miembros de Γ se les llama entornos coordenados de B, por definicion 1.1.1., para cada
i ∈ I hay un homeomorfısmo
αi : Ui × F −→ π−1(Ui),
denominado la funcion coordenada de Ui, tal que
π(αi(u, x)) = u, para cada u ∈ Ui, y cada x ∈ F.
Para cada u ∈ Ui, i ∈ I, se considera el homeomorfısmo αi,u : F −→ π−1(u) definida
por
αi,u(x) = αi(u, x),
entonces, para cada par i, j ∈ I, y cada u ∈ Ui ∩ Uj se tiene el siguiente homeomorfısmo
α−1j,u αi,u : F −→ F
y se define la funcion
guji = α−1
j,u αi,u, (1.1)
la cual es contınua.
1.1 Fibrados 3
π−1(Ui ∩ Uj)
αi,u αj,u
Ui ∩ Uj × F ⊂ Ui × F Ui ∩ Uj × F ⊂ Uj × FUi ∩ Uj
αi αj
PR1PR1
π−1(u)PR2
PR2
α−1j,u αi,u
F F-
6 6
-
?
¾
?
@@
@@
@@
@@
@@R
¡¡
¡¡
¡¡
¡¡
¡¡ª
¡¡
¡¡
¡µ
@@
@@
@I
Estas funciones guij con i, j ∈ I cumplen con las siguientes propiedades:
(i) guii = 1F, siempre que u ∈ Ui, donde 1F es la funcion identidad en F.
(ii) guij =
(gu
ji
)−1, siempre que u ∈ Ui ∩ Uj.
(iii) guijg
ujk = gu
ik, siempre que u ∈ Ui ∩ Uj ∩ Uk.
En efecto,
(i) Sea u ∈ Ui, entonces
guii = α−1
i,u αi,u = 1F.
(ii) Para u ∈ Ui ∩ Uj,
guij = α−1
i,u αj,u = (α−1j,u αi,u)−1 =
(gu
ji
)−1.
(iii) Suponiendo que u ∈ Ui ∩ Uj ∩ Uk, se tiene que
guijg
ujk = (α−1
i,u αj,u)(α−1j,u αk,u) = α−1
i,u (αj,uα−1j,u )αk,u = α−1
i,u 1Fαk,u = α−1i,u αk,u = gu
ik.
Para cada i, j ∈ I, una funcion gij como en (1.1), es llamada el cambio de coordenada
(de Ui × F a Uj × F) del fibrado, y al conjunto
G = gij : i, j ∈ I, (1.2)
se le llama conjunto de cambios de coordenadas del fibrado.
1.2 Construccion de Fibrados 4
1.2. Construccion de Fibrados
Ahora la idea es saber ¿Cual es la condicion necesaria y suficiente para tener un
fibrado?. Para dar una idea de la condicion es necesaria la siguiente construccion.
Sea T ⊂ B × I × F el conjunto de los triples (u, i, x) tal que u ∈ Ui. Entonces
T =⊔
i
Ui × i × F, (1.1)
y defınase la siguiente relacion ” ∼ ”,
(u, i, x) ∼ (v, j, y) ⇐⇒ u = v, gvjix = y, con gji ∈ G.
La relacion ” ∼ ” es de equivalencia. En efecto,
(i) Reflexividad: es directo de la propiedad 1.1.1.(i).
(ii) Simetrıa: si (u, i, x) ∼ (v, j, y), entonces u = v y gvjix = y. De la propiedad 1.1.1.(ii)
gvijy = gv
ij
[gv
jix]
=[
gvijg
vji
]x = 1Fx = x,
ası (v, j, y) ∼ (u, i, x).
(iii) Transitividad: si (u, i, x) ∼ (v, j, y) y (v, j, y) ∼ (w, k, z), entonces u = v, gvjix = y y
v = w, gwkjy = z. De la propiedad 1.1.1.(iii),
z = gwkjy = gw
kj
[gv
jix]
=[
gwkjg
vji
]x = gv
kix.
Por tanto, (u, i, x) ∼ (w, k, z).
Ahora se puede definir el espacio
E = T/ ∼, (1.2)
asignando a cada (u, i, x) ∈ T su clase de equivalencia [u, i, x] ∈ E.
Con esta relacion de equivalencia y este espacio cociente definido se puede enunciar el
siguiente Teorema, cuya demostracion se realiza usando las ideas de la construccion del
espacio E ((1.2) de esta seccion ). Para ver la demostracion en detalle consultar Steenrod,
N [10].
1.3 Ejemplos: Fibrado Tangente 5
Teorema 1.2.1. Sean B y F espacios topologicos, y G = gij : i, j ∈ I un conjunto de cambios de
coordenadas cuyos elementos actuan sobre F. Si Uii∈I es un cubrimiento abierto de B; giji,j∈I
es un sistema de cambios de coordenadas en el espacio B, entonces existe un fibrado ξ con espacio
base B, fibra F, cambios de coordenadas giji,j∈I , espacio fibrado
E =
⊔i Ui × i × F
∼y proyeccion π : E −→ B, definida como
π([u, i, x]) = u.
Observacion 1.2.1. Cualquier otro fibrado ξ ′ que tenga los mismos conjuntos G, F, B y
Uii∈I ; giji,j∈I (sistema de cambios de coordenadas) es equivalente al fibrado ξ.
1.3. Ejemplos: Fibrado Tangente
Hay una gran gama de ejemplos de fibrados y muchas maneras de construirlos. Para
estas notas solo es de interes un caso particular de los fibrados, que es el fibrado tangente
como se muestra a continuacion.
1.3.1. Fibrado de una superficie simple.
Sea D ⊂ R2 un abierto y X : D ⊆ R2 −→ R3 una superficie simple tal que
X(u, v) = (x(u, v), y(u, v), z(u, v)) y S = Im(X). Entonces para cada p = X(u, v) ∈ S
existe un unico plano tangente TpS dado por la ecuacion
TpS :
⟨∂X
∂u× ∂X
∂v
∣∣∣∣(u,v)
,x− p⟩= 0.
El espacio fibrado “tangente” a S es
T(S) =⊔p∈S
p ×R2 = S ×R2,
donde S y R2 son el espacio Base y Fibra respectivamente del fibrado, cuya proyeccion
esta dada por la funcion
π : T(S) −→ S,
π(p,v) = p.
1.3 Ejemplos: Fibrado Tangente 6
Ademas, dado (p,v) ∈ T(S), basta elegir S como el abierto que contiene a p y el
homeomorfısmo
α : S ×R2 −→ π−1(S),
α(s,w) = (s, [w]BT) ,
donde BT =
∂X∂u , ∂X
∂v
es una base del subespacio vectorial de dimension 2 de vectores
tangentes en s, con s ∈ S.
Observacion 1.3.1. Notese que [w]BT= [ JX|(u,v)]x, donde [ JX|(u,v)] es la matriz jacobiana
de X en (u, v) ∈ D y X(u, v) = s.
Figura 1.2: Fibrado tangente de una superficie simple.
1.3.2. Fibrado de una superficie
Supongase que M es una superficie (no simple) en R3. Entonces para cada punto p en
M existe una superficie simple (carta local) α : D ⊆ R2 −→ R3 tal que p ∈ α(D) = U.
Como se vio en la subseccion anterior, existe un fibrado tangente de U, T(U) = U ×R2,
homeomorfo a π−1(U).
Sean (α, U) y (β, V) dos cartas en M tales que U ∩ V. Por ser M una superficie,
ϕ = β−1 α : α−1(U ∩ V) ⊂ U −→ β−1(U ∩ V) ⊂ V
1.3 Ejemplos: Fibrado Tangente 7
es un cambio de coordenadas (de U a V). Luego intersectando dos cartas fibradas,
U ∩ V ×R2, se tienen las siguientes funciones coordenadas:
α, β : U ∩ V ×R2 −→ π−1(U ∩ V),
definidas como
α(p,x) =(p,
[Jα|α−1(p)
]x)y
β(p,x) =(p,
[Jβ|β−1(p)
]x).
De donde
ϕ = β−1 α : U ∩ V ×R2 ⊆ R4 −→ U ∩ V ×R2 ⊆ R4
definida como
ϕ(p,x) =
(p,[
Jβ|β−1(p)
]−1 [Jα|α−1(p)
]x)
es un cambio de coordenadas (o de cartas) fibradas. Vease el siguiente diagrama.
π−1(U ∩ V)α βU ∩ V ×R2 U ∩ V ×R2
U ∩ V
α−1(U ∩ V) β−1(U ∩ V)
PR1PR1
ϕ
α β
- ¾
?
@@
@@
@@R
¡¡
¡¡
¡¡ª
¡¡
¡¡µ
@@
@@I
-
Entonces por el teorema 1.2.1 ( Teorema de Existencia de Fibrados), existe un espacio
fibrado
TM =
⊔α Uα ×R2
∼ =⊔p∈M
TpM
con base M y fibra R2.
1.3 Ejemplos: Fibrado Tangente 8
Figura 1.3: Cambio de cartas de un fibrado tangente de una superficie.
1.3.3. Representacion geometrica de un espacio fibrado
Geometricamente, el fibrado tangente es la union disjunta de los espacios tangentes.
Ahora se quiere mostrar un modelo geometrico de como puede ser un fibrado tangente.
Una superficie (simple o no) su espacio fibrado es de dimension 4, es decir, el grafico
esta enR5 y esto limita una ilustracion. Ahora bien, tomando una curva plana, su espacio
fibrado asociado es de dimension 2, por tanto el grafico es un subconjunto de R3, el cual
si se puede ilustrar. Sin embargo, hay que tener cuidado en el modelo a seleccionar pues
si por ejemplo se toma un modelo como el dado en la figura 1.4 , entonces no se obtiene
una buena representacion ya que el fibrado tangente no se puede representar como una
union disjunta de la familia de rectas tangentes asociadas al modelo.
Para representar el fibrado tangente como una union disjunta, y acorde con el
razonamiento de la dimension del espacio fibrado, un buen modelo a ilustrar esta en
la figura 1.5.
Notese que fue obligatorio subir de dimension para lograr la union disjunta.
1.3 Ejemplos: Fibrado Tangente 9
Figura 1.4: Mala representacion para un espacio fibrado tangente de una curva plana.
Figura 1.5: Representacion de un fibrado tangente de una curva plana.
CAPITULO 2
Medidas Aleatorias y Procesos Puntuales
2.1. Introduccion
El proposito de este capıtulo es el estudio de los procesos puntuales y sus medidas
aleatorias asociadas. Se inicia con una version “mas probabilıstica” la definicion de
los procesos aleatorios puntuales y se desglosa de manera ilustrada para notar la
interpretacion geometrica de estos, seguidamente se toman dos procesos particulares
(Caminatas Aleatorias y Cadenas de Markov) como ejemplos.
Los procesos puntuales unidimensionales pueden ser formulados de diversas maneras,
puesto que el espacio en donde ocurren las trayectorias es la recta real y por esta razon
se cuenta con el uno de los principales beneficios de este espacio, el orden natural de los
numeros reales, para formular los procesos puntuales unidimensionales. La formulacion
mas ventajosa, como explica Baddeley [1], es usando el conteo de puntos del proceso
por intervalo, esto es, el conteo de puntos del proceso en cada intervalo compacto deR. Este conteo de puntos por intervalo compacto es independiente y esto resulta ideal
para manipular las distribuciones de los procesos, ademas que este modo de formular
los procesos da de manera directa un patron para generalizar los procesos puntuales a
elevadas dimensiones, desde un conteo de puntos por intervalo compacto de R a un
conteo de puntos por region compacta de X Polaco. Dicho conteo de puntos por region
compacta junto con el Teorema de Caratheodory se llega a la contruccion formal de la
definicion de un proceso puntual.
Finalmente se introduce el concepto de conjunto cerrado aleatorio, que intuitivamente
es una union de conjuntos cerrados que contienen puntos del proceso. Es decir, si se
10
2.2 Procesos Estocasticos 11
considera (X, T ) un espacio topologico y A la familia de todos los abiertos de X que
no contienen puntos del proceso, esto es
A = B ∈ T : B no contiene puntos del proceso
,
Figura 2.1: Conjunto Cerrado Aleatorio Ξ.
entonces el conjunto cerrado aleatorio puede ser tomado como
Ξ =⋃
B∈A
Bc,
el cual sera generalizado como una funcion medible con fines de definir, en el ultimo
capıtulo, procesos de objetos geometricos mas complejos que un punto.
2.2. Procesos Estocasticos
Intuitivamente un proceso estocastico consiste en la descripcion historica de algunas
variables aleatorias Xt la cual evolucionan en el tiempo.
Definicion 2.2.1. Dado un espacio de probabilidad (Ω,A,P), un proceso estocastico o
un proceso aleatorio es una familia de variables aleatorias ( funciones medibles),
(Xt : t ∈ T) = (Xt(ω) : t ∈ T, ω ∈ Ω, T ⊂ T)
donde T es una familia de ındices.
2.2 Procesos Estocasticos 12
Observacion 2.2.1. Notense las siguientes:
(i) Un proceso estocastico es discreto si T = N o T = Z, y continuo si T = R. Para
fines de este trabajo, solo se consideran procesos estocasticos discretos.
(ii) Se asume que el proceso toma sus valores en un conjunto E , llamado espacio de
estados.
(iii) Se asume que el espacio de estados E es finito o numerable.
(iv) El espacio de estados E no necesariamente tiene alguna relacion con el espacio
muestral Ω.
(v) Un proceso estocastico es una funcion de dos variables tales que:
1. Para cada instante de tiempo t0 fijo, la funcion Xt0(ω), ω ∈ Ω es una variable
aleatoria.
2. Para cada ω0 fijo Xt(ω0), t ∈ T es una funcion del tiempo. Esta funcion es
llamada trayectoria del proceso. Es decir, para cada ω ∈ Ω se tiene una
trayectoria, Xt(ω)t∈T, del proceso. Vease figura 2.2.
0 0.5 1 1.5 2 2.5 3 3.5 4−30
−20
−10
0
10
20
30
40Figura 1. Diferentes trayectorias(w=1,w=2 y w=3) de un proceso puntual 1−dimensional.
X1X2X3X4X5X6X7X8X(n−1)Xn
Figura 2.2: Tres trayectorias distintas de un proceso puntual unidimensional.
2.3 Caminatas Aleatorias 13
Para observar el orden de las llegadas en el tiempo se usa una poligonal de orden,
que consiste en unir con segmentos de recta Xn(ω0) con Xn+1(ω0), n ∈ T ⊂ Z. Vease
poligonal para la trayectoria asociada al evento ω = 3 de la figura 2.2.
0 1 2 3 4 5 6 7 8 9 10−15
−10
−5
0
5
10
15
20
25
30Figura 2. Poligonal para el evento dado w=3 de la figura 1.
indice
valo
res
que
tom
a el
eve
nto
del p
roce
so
Figura 2.3: Poligonal para el evento ω = 3 del proceso descrito en la figura 2.2.
Definicion 2.2.2. Sea (Xt, t ∈ T) un proceso estocastico. Dado ω ∈ Ω fijo, sea Xt(ω) una
trayectoria asociada a ω, en un espacio X. Se define el grafo asociado a la trayectoria
Xt(ω), al conjunto
Gr(ω) = x ∈ X : Xt(ω) = x, t ∈ T, T ⊂ T, ω ∈ Ω.
Notese que varias trayectorias del proceso pueden tener el mismo grafo asociado.
2.3. Caminatas Aleatorias
Supongase que se tiene una partıcula en movimiento de tal manera que el paso
siguiente de dicha partıcula no tiene ninguna relacion con ninguno de los pasos dados
anteriormente. Una situacion como esta es lo que es llamado caminata aleatoria, que
formalmente se enuncia en la siguiente definicion.
Definicion 2.3.1. Considerese Xnn∈N una sucesion de variables aleatorias independi-
entes, identicamente distribuidas y no concentradas. La caminata aleatoria inducida por
2.3 Caminatas Aleatorias 14
Xnn∈N es la sucesion de variables aleatorias Cnn≥0 tales que
Cn =n
∑k=0
Xk,
donde el punto inicial es tomado en el origen, X0 = 0.
Un vector aleatorio de la sucesion dada Xnn∈N, es (Xj+1, · · · , Xk) y sus sumas
parciales 0, Cj+1 − Cj, · · · , Ck − Cj se denominara la seccion jk-esima de la caminata
aleatoria. Los subındices se tratan como parametro de tiempo, a las que se llamaran
epocas.
Cn alcanza un valor de registro en los puntos donde Cn excede a todos los valores
anteriores C0, · · · , Cn−1. Vease figura 2.4.
Se puede repetir varias veces el mismo valor de registro antes de que alcance un
nuevo valor de registro. A los puntos de dichos maximos relativos se les llama puntos
escalonados debiles. La importancia de los puntos escalonados proviene del hecho de
que las secciones entre ellos son replicas probabilisticas mutuas, por lo que se pueden
obtener importantes conclusiones relativas de la caminata aleatoria con el estudio del
primer punto escalonado.
En la siguiente figura (figura 1.4), se muestra la poligonal de orden o trayectoria de
un evento para una caminata aleatoria unidimensional (n, Cn) donde X = (Xn)n∈N tiene
espacio de estados EX = −1, 1 y probabilidad p = 0.5, para cada estado.
Ejemplo 2.3.1. Sea A = αn : n ∈ N una sucesion de variables aleatorias independientes
distribuidas uniformemente en [0, 2π). Sea el siguiente proceso
X = Xαn : n ∈ T ⊂ N, αn ∈ A, ‖Xαn‖ = 1, ∀n ∈ N.
El espacio de estados para X es EX = S1 ∩ (x, y) : y = mx, m ∈ Q. Ahora la caminata
aleatoria inducida por X es Cnn∈N, donde
Cn =n
∑k=0
Xαk.
Notese que el espacio de estado para este nuevo proceso es EC = R2. Vease figura 2.5,
donde se muestra una trayectoria de 20 mil pasos.
2.4 Cadenas de Markov 15
0 10 20 30 40 50 60 70 80 90 100−3
−2
−1
0
1
2
3
4
5
6Un evento para una RW−1D, con estados en −1,1 y p=0.5 para cada estado
indice
valo
res
de la
cam
inat
a
Figura 2.4: Una trayectoria de la caminata aleatoria con EX = −1, 1.
2.4. Cadenas de Markov
Una cadena de Markov es un proceso estocastico donde el estado (paso) siguiente
esta estrictamente relacionado con el ultimo estado (paso) realizado. Por esta razon hallar
la probabilidad del siguiente estado, conocidos todos los anteriores, es tan bueno como
hallar la probabilidad del siguiente estado conociendo solo el actual.
Para definir una cadena de Markov, considerese U = (Un : n ∈ Z) una sucesion de
variables aleatorias independientes con distribucion uniforme en el intervalo [0, 1].
Definicion 2.4.1. Un proceso (Xn)n∈N con espacio de estados E es una cadena de Markov
con estado inicial a ∈ E si existe una funcion
F : E × [0, 1] −→ E ,
tal que X0 = a y para todo n ≥ 1,
Xn = F(Xn−1, Un). (2.1)
Ejemplo 2.4.1. Sea E = 0, 1 y
F(x, u) = δu>h(x)(x),
donde h es una funcion de 0, 1 en [0, 1]. Luego sean h(0) y h(1) numeros arbitrarios
fijos en [0, 1]. Informalmente dicho, a cada instante n el proceso toma estos valores 0 o 1,
2.4 Cadenas de Markov 16
Figura 2.5: Una trayectoria de la caminata aleatoria descrita en el ejemplo 2.3.1.
donde Un es mas pequeno o mas grande que h(Xn−1). Vease figura 2.6, donde se toma
h(0) = 0.75; h(1) = 0.25 y X0 = 0.
Ejemplo 2.4.2. Sea E = 0, 1,
F(x, u) =
1 − x si u > g(x)
x en otro caso
donde g : 0, 1 −→ [0, 1] es una funcion. Sean g(0) y g(1) numeros arbitrarios fijos
en [0, 1]. Informalmente dicho, en cada instante n el proceso cambia de estado si el
correspondiente valor Un es mas grande que g(Xn−1). Vease figura 2.7, donde se toma
g(0) = 0.75; g(1) = 0.25 y X0 = 0.
Definicion 2.4.2. Sea
Q(x, y) = P(Xn = y|Xn−1 = x), (2.2)
para n ∈ N y x, y ∈ E .
Una funcion Q : E × E −→ [0, 1] es llamada una matriz de transicion si para cada
x ∈ E ,
∑y∈E
Q(x, y) = 1.
En otras palabras, si la suma de las entradas de cada fila de la matriz es igual a 1.
2.4 Cadenas de Markov 17
0 5 10 15 20 25 30 35 40 45 500
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1Figura 2. Un evento para el ejemplo 1 con h(0)=0.75, h(1)=0.25 y estado inicial en el orígen.
indice
esta
do
Figura 2.6: Una trayectoria del proceso de Markov descrito en el ejemplo 2.4.1.
Proposicion 2.4.1. Cada matriz de transicion Q en E y cada a ∈ E define una cadena de Markov
(Xn)n∈N con probabilidades de transicion dadas por Q y estado inicial a. Esto es, existe una
funcion F tal que la cadena de Markov (2.1) satisface (2.2).
Demostracion:
Se necesita construir una funcion F : E × [0, 1] −→ E como la de la definicion 2.4.1 con
la propiedad P(F(x, u) = y) = Q(x, y).
A continuacion se propone una construccion general de dicha funcion F.
Para cada x ∈ E se construye una particion de [0, 1], sea (I(x, y) : y ∈ E) una familia
de borelianos (sin perdida de generalidad se considera I(x, y) como una union finita o
numerable de intervalos) que satisface
I(x, y) ∩ I(x, z) = ∅,
siempre que x 6= z, y⋃
y∈EI(x, y) = [0, 1].
Se pide que m(I(x, y)) = Q(x, y), donde m(I) es la medida de Lebesgue del conjunto
I.
2.4 Cadenas de Markov 18
0 5 10 15 20 25 30 35 40 45 500
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1Figura 3. Un evento para el ejemplo 2 con g(0)=0.75, g(1)=0.25 y estado inicial en el orígen.
indice
esta
do
Figura 2.7: Una trayectoria del proceso de Markov descrito en el ejemplo 2.4.2.
Hay muchas maneras de definir las particiones. La mas simple es ordenando los
estados de E y concatenar intervalos de longitud Q(x, y). Con la particion en mano, se
define F como sigue,
F(x, u) = ∑y∈E
y1I(x,y)(u). (2.3)
En otras palabras, F(x, u) = y, si y solo si u ∈ I(x, y). Luego se construye la cadena
(Xn)n∈N usando la definicion 2.4.1 con la funcion (2.3). Para ver que esta cadena tiene
probabilidades de transicion Q, se procede con el siguiente calculo:P(Xn = y|Xn−1 = x) = P(F(x, Un) = y)
= P(Un ∈ I(x, y)) (2.4)
= m(I(x, y)) (2.5)
= Q(x, y).
¤
La proposicion anterior dice que para algun proceso (Xn)n∈N satisfaciendo (2.3)
es posible construir otro proceso (Yn)n∈N con la misma ley (distribucion) usando el
algoritmo (2.1). La proposicion 2.4.1 motiva el siguiente teorema.
2.4 Cadenas de Markov 19
Teorema 2.4.1. (Cadena de Markov) Un proceso estocastico (Xn)n∈N con espacio de estados Ees una cadena de Markov con matriz de transicion Q, si para todo n ≥ 1 y cada subconjunto finito
xi : 0 ≤ i ≤ n de E tal queP(X0 = x0, · · · , Xn−1 = xn−1, Xn = xn) > 0,
cumple que:P(Xn = xn|X0 = x0, · · · , Xn−1 = xn−1) = P(Xn = xn|Xn−1 = xn−1) = Q(xn−1, xn).
La expresion anterior es conocida como la propiedad de Markov.
Demostracion:
Notese que por definicion de probabilidad condicional e hipotesis,P(Xn = xn|Xn−1 = xn−1) =P(Xn = xn, Xn−1 = xn−1)P(Xn−1 = xn−1)
≥ P(Xn = xn, Xn−1 = xn−1, · · · , X1 = x1, X0 = x0)P(Xn−1 = xn−1)> 0,
de la igualdad (2.4) se deduce queP(Xn = xn|Xn−1 = xn−1) > 0 ⇐⇒ Un ∈ I(xn−1, xn).
Por lo tanto,P(Xn = xn|X0 = x0, · · · , Xn−1 = xn−1) = P(Un ∈
n−1⊔
k=0
I(xk, xn)
)
=n−1
∑k=0
P(Un ∈ I(xk, xn))
= P(Un ∈ I(xn−1, xn))
= P(Xn = xn|Xn−1 = xn−1) = Q(xn−1, xn).
¤
El teorema anterior dice que, en una cadena de Markov, la prevision del paso siguiente
sabiendo todo el pasado es tan bueno como cuando se conoce solo el valor actual del
proceso. El enunciado del teorema es lo que en la mayorıa de los libros toman como una
definicion de cadena de Markov.
2.4 Cadenas de Markov 20
Como consecuencia del Teorema 2.4.1, la probabilidad conjunta de una cadena de
Markov es dada por:P(X0 = x0, · · · , Xn−1 = xn−1, Xn = xn) = P(Xn = xn|Xn−1 = xn−1, · · · , X0 = x0)
= P(Xn = xn|Xn−1 = xn−1, · · · , X0 = x0)P(Xn−1 = xn−1|Xn−2 = xn−2, · · ·· · · , X0 = x0) · · ·P(X2 = x2|X1 = x1, X0 = x0)P(X1 = x1|X0 = x0)P(X0 = x0)
= P(Xn = xn|Xn−1 = xn−1)P(Xn−1 = xn−1|Xn−2 = xn−2) · · ·P(X1 = x1|X0 = x0)P(X0 = x0)
= Q(xn−1, xn)Q(xn−2, xn−1) · · · Q(x1, x2)Q(x0, x1)P(X0 = x0).
El siguiente ejemplo es muy usado en el resto de este trabajo como base para generar
otros ejemplos mas complejos.
Ejemplo 2.4.3. Caminata aleatoria en el hipercubo
Sea N un entero positivo y E = 0, 1N. Si N = 2 se puede pensar a E como el conjunto
de vertices de un cuadrado. Cuando N = 3 se puede pensar a E como el conjunto de
vertices de un cubo y cuando N ≥ 4, puede pensarse como el conjunto de los vertices de
un hipercubo.
Sea x = (x1, · · · , xN) un elemento de E . Los vecinos de x son los elementos de E que
tengan todas las coordenadas iguales a x excepto una. Si j ∈ 1, 2, · · · , N, es llamado xj
al elemento de E que tenga todas las coordenadas iguales a x pero la j-esima distinta,
xji =
xi si i 6= j
1 − xj si i = j
De manera que los vecinos de x son los elementos x1,x2, · · · ,xN.
Esto induce una nocion natural de distancia entre elementos de E ,
d(x,y) =N
∑i=1
|xi − yi|
para x,y ∈ E . La distancia entre x y y es el numero de coordenadas para que x y yson diferentes. Esta es conocida como la distancia de Hamming. Dos elementos de E son
vecinos cuando la distancia de Hamming entre ellos es uno.
Ahora se quiere construir una cadena de Markov en E con el siguiente compor-
tamiento. En cada tiempo del proceso se decide cambiar de estado (o no) segun el re-
sultado de una perfecta moneda (es decir con la misma probabilidad para cambiar de
estado o no). Si este decide cambiar, entonces salta a uno de los vecinos con la misma
probabilidad. Este proceso es construido de la manera siguiente:
2.4 Cadenas de Markov 21
Para a ∈ 0, 1 sea
xj,ai =
xi si i 6= j
a si i = j
una configuracion con valor a en la j-esima coordenada e igual a x en las otras
coordenadas. Considerese
I(x,y) =
[j−1N ,
j−1N + 1
2N
)si y = xj,0, j = 1, · · · , N
[j−1N + 1
2N ,j
N
)si y = xj,1, j = 1, · · · , N
∅ si d(x,y) > 1
Entonces usando la igualdad (2.5), la probabilidad del j-esimo ensayo en el paso n es:P(Un ∈
[j − 1
N,
j
N
))=
1
N,
y la probabilidad de asignar el valor 0 para el sitio elegido esP(Un ∈
[j − 1
N,
j − 1
N+
1
2N
)∣∣∣∣ Un ∈[
j − 1
N,
j
N
))=P(
Un ∈[
j−1N ,
j−1N + 1
2N
)∩
[j−1N ,
jN
))P(Un ∈
[j−1N ,
jN
))
=P(
Un ∈[
j−1N ,
j−1N + 1
2N
))P(Un ∈
[j−1N ,
jN
))
=1
2.
analogamente, la probabilidad para asignar el valor 1 para el sitio elegido es 1/2. Con
estas estas expresiones en mano se puede calcular Q(x,y). Es notorio que esto es cero siy no es vecino de x. Asumiendo que xj = 1 se calcula,
Q(x,xj) = P(U1 ∈
[j − 1
N,
j − 1
N+
1
2N
))=
1
2N.
Analogamente, asumiendo xj = 0,
Q(x,xj) = P(U1 ∈
[j − 1
N+
1
2N,
j
N
))=
1
2N.
Vease la figura 2.8. Una caminata aleatoria en el cubo cuyo estado inicial es el origen.
2.4 Cadenas de Markov 22
00.2
0.40.6
0.81
0
0.5
10
0.2
0.4
0.6
0.8
1
X
Figura 4. Caminata Aleatoria en el Cubo.(100 pasos)
Y
Z
Figura 2.8: Una trayectoria aleatoria en el cubo (100 pasos aleatorios).
2.5 Teorema de Caratheodory y la medida de Conteo 23
2.5. Teorema de Caratheodory y la medida de Conteo
Un proceso puntual es un proceso estocastico (Xt : t ∈ T) cuya familia de variables
aleatorias definidas sobre un espacio Ω son tales que, para cada ω0 fijo se tiene que
dim(Xt(ω0)) = 0 donde t ∈ T. Pero para fines practicos esta manera de ver los procesos
puntuales es bastante vaga.
La manera mas util y conveniente para formular los procesos puntuales es usando el
conteo de puntos por region, que no es mas que el numero de puntos en un subconjunto
cerrado y acotado B en el espacio X. El contador de puntos u operador de conteo es
natural para el estudio de propiedades aditivas de un proceso puntual.
Ademas, los valores del operador contador, da suficiente informacion para reconstruir
totalmente las posiciones de todos los puntos en el proceso. En efecto, este indica en cuales
puntos del espacio X hay puntos del proceso.
Ası, teniendo este operador y usando la herramienta del Teorema de Caratheodory se
puede comenzar a construir una definicion de procesos puntuales mas manejable para
niveles practicos.
2.5.1. Teorema de Caratheodory
El Teorema de Caratheodory es base para construcciones de medidas en las proximas
secciones.
Definicion 2.5.1.
Sea X un conjunto. Decimos que una funcion µ∗ : P(X) −→ [0, ∞] es una medida
exterior si:
1. µ∗(∅) = 0,
2. µ∗ es monotona, esto es, si A ⊂ B entonces µ∗(A) ≤ µ∗(B),
3. µ∗ es σ-subaditiva, es decir, si A =⋃∞
n=1 An, luego
µ∗(A) ≤∞
∑n=1
µ∗(An).
Ademas, se dice que un conjunto E ⊂ X es µ∗-medible, si para todo A ∈ P(X)
µ∗(A) = µ∗(A ∩ E) + µ∗(A ∩ Ec).
2.5 Teorema de Caratheodory y la medida de Conteo 24
Observacion 2.5.1. Sea E ⊂ X, entonces ∀A ∈ P(X)
A = A ∩ (E ∪ Ec) = (A ∩ E) ∪ (A ∩ Ec),
por la σ-subaditividad de µ∗ se tiene que:
µ∗(A) ≤ µ∗(A ∩ E) + µ∗(A ∩ Ec).
Por lo tanto, se puede decir que E ⊂ X es µ∗-medible si y solo si ∀A ⊂ Xµ∗(A) ≥ µ∗(A ∩ E) + µ∗(A ∩ Ec).
Teorema 2.5.1. (Caratheodory)
Sea
Mµ∗ = E ⊆ X : µ∗(A) = µ∗(A ∩ E) + µ∗(A ∩ Ec), ∀A ⊂ X,
la clase de todos los subconjuntos medibles deX. La clase Mµ∗ es una σ-algebra y la restriccion µ
de µ∗ a esta clase es una medida.
Demostracion:
A continuacion se demostrara que Mµ∗ satisface las propiedades de una σ-algebra.
(i) Dado A ⊂ X, y puesto que µ∗(∅) = 0, entonces
µ∗(A) = µ∗(A ∩X) + µ∗(∅) = µ∗(A ∩X) + µ∗(A ∩ ∅) = µ∗(A ∩X) + µ∗(A ∩Xc),
es decir,X ∈ Mµ∗ .
(ii) Sea E ∈ Mµ∗ . Luego para cada A ∈ P(X).
µ∗(A) = µ∗(A ∩ E) + µ∗(A ∩ Ec) = µ∗(A ∩ Ec) + µ∗(A ∩ (Ec)c),
por lo tanto Ec ∈ Mµ∗ .
Notese que ∅ ∈ Mµ∗ por (i) y (ii).
(iii) Sean E1, E2 ∈ Mµ∗ . Entonces teniendo en cuenta la observacion 2.5.1, la medibilidad
de conjuntos y la subaditividad de µ∗, se tiene que,
µ∗(A) = µ∗(A ∩ E1) + µ∗(A ∩ Ec1)
= µ∗(A ∩ E1) + µ∗(A ∩ Ec1 ∩ E2) + µ∗(A ∩ Ec
1 ∩ Ec2)
≥ µ∗((A ∩ E1) ∪ (A ∩ Ec1 ∩ E2)) + µ∗(A ∩ (E1 ∪ E2)
c)
= µ∗(A ∩ (E1 ∪ (Ec1 ∩ E2))) + µ∗(A ∩ (E1 ∪ E2)
c)
= µ∗(A ∩ (E1 ∪ E2)) + µ∗(A ∩ (E1 ∪ E2)c),
2.5 Teorema de Caratheodory y la medida de Conteo 25
para cualquier A ⊂ X. Por lo tanto, E1 ∪ E2 ∈ Mµ∗ .
Notese que por las dos propiedades anteriores (Mµ∗ cerrado para uniones finitas y
complementos) se tiene que si E1, E2 ∈ Mµ∗ entonces E1 ∩ E2 ∈ Mµ∗ .
(iv) Dada cualquier sucesion de conjuntos (An)n≥1 en Mµ∗ se puede construir a partir
de esta sucesion una sucesion de conjuntos disjuntos (En)n≥1 tal que
⋃
n≥1
An =⊔
n≥1
En.
Por lo tanto para probar que Mµ∗ es cerrado para uniones numerables basta ver
que, dado E =⊔
n≥1 En, con En ∈ Mµ∗ entonces E ∈ Mµ∗ .
En efecto, sea E =⊔
n≥1 En, En ∈ Mµ∗ y A ∈ X. Definiendo Fn =⊔n
k=1 Ek y teniendo
en cuenta la observacion 2.5.1 y la monotonıa de µ∗,
µ∗(A) = µ∗(A ∩ Fn) + µ∗(A ∩ Fcn)
≥ µ∗(A ∩ Fn) + µ∗(A ∩ Ec).
Ademas,
µ∗(A ∩ Fn) = µ∗(A ∩ Fn ∩ En) + µ∗(A ∩ Fn ∩ Ecn)
= µ∗(A ∩ En) + µ∗(A ∩ Fn−1).
Por induccion en n ≥ 1
µ∗(A ∩ Fn) =n
∑k=1
µ∗(A ∩ Ek), (2.1)
luego tomando lımite y σ-subaditividad de µ∗
lımn→∞
µ∗(A ∩ Fn) =∞
∑k=1
µ∗(A ∩ Ek)
≥ µ∗(
n⊔
k=1
(A ∩ Ek)
)(2.2)
= µ∗(A ∩ E).
Ası se concluye que E ∈ Mµ∗ .
Observacion 2.5.2. Por monotonıa de µ∗ se tiene que µ∗(A ∩ E) ≥ µ∗(A ∩ Fn). Usando la
igualdad (2.1) y tomando lımite cuando n −→ ∞ se tiene que
µ∗(A ∩ E) ≥∞
∑k=1
µ∗(A ∩ Ek).
2.5 Teorema de Caratheodory y la medida de Conteo 26
Luego por la desigualdad (2.2) se concluye que,
µ∗(A ∩ E) =∞
∑n=1
µ∗(A ∩ Ek). (2.3)
Ahora se demostrara que µ es una medida sobre Mµ∗ .
(i) Sea E ∈ Mµ∗ . Entonces
µ∗(∅) = µ∗(∅ ∩ E) + µ∗(∅ ∩ Ec) = 2µ∗(∅) ⇐⇒ µ∗(∅) = 0,
por lo tanto,
µ(∅) = µ∗(∅) = 0.
(ii) Sea E =⊔∞
n=1 En con En ∈ Mµ∗ ∀n. Como E es medible, por la ecuacion (2.3),
tomando E = A,
µ(E) = µ∗(E) =∞
∑n=1
µ∗(En) =∞
∑n=1
µ(En).
Ası, µ∗ es una medida en Mµ∗ . ¤
Definicion 2.5.2. Sea C una clase de subconjuntos de un conjunto X tal que esta contiene
al vacıo. Se dice que una funcion λ : C −→ [0, ∞] es una premedida si λ(∅) = 0.
Teorema 2.5.2. Sea λ una premedida definida en una clase C de subconjuntos de X que contiene
al vacıo. Para cada E ⊂ X, se define
µ∗(E) = inf
∞
∑i=1
λ(Ci) : Ci ∈ UE
,
donde UE = Ci ⊂ C : E ⊂ ⋃∞i=1 Ci es la clase de todos los cubrimientos de E por conjunto de
C. Si no hay ni un cubrimiento de E por conjuntos de C, es decir UE = ∅, entonces µ∗(E) = ∞.
Luego µ∗ es una medida exterior, que extiende a λ.
Demostracion:
(i) Ya que λ es una premedida y ∅ ∈ C, µ∗(∅) = λ(∅) = 0.
(ii) Si A ⊂ B ⊂ X, todo cubrimiento de B por conjuntos de C es cubrimiento de A, esto
es, UB ⊂ UA, por lo tanto
µ∗(A) = inf
∞
∑i=1
λ(Ci) : Ci ∈ UA
≤ inf
∞
∑i=1
λ(Ci) : Ci ∈ UB
= µ∗(B).
2.5 Teorema de Caratheodory y la medida de Conteo 27
(iii) Si E =⋃∞
n=1 En con (En)∞n=1 ⊂ X, se quiere ver que
µ∗(E) ≤∞
∑n=1
µ∗(En).
En efecto, si µ∗(En) = ∞ para algun n, se tiene por monotonıa que
µ∗(
∞⋃
n=1
En
)≥ µ∗(En) = ∞.
Supongase entonces que ∀n ∈ N µ∗(En) < ∞. Sea ǫ > 0, entonces, por definicion
de µ∗, para cada n ∈ N existe un cubrimiento numerable Cn,i∞i=1 de En, de la clase
C tal que∞
∑i=1
λ(Cn,i) < µ∗(En) +ǫ
2n.
Ası
E =∞⋃
n=1
En ⊆∞⋃
n=1
∞⋃
i=1
Cn,i,
por lo tanto, dado que µ∗ es monotona,
µ∗(E) = µ∗(
∞⋃
n=1
En
)≤ µ∗
(∞⋃
n=1
∞⋃
i=1
Cn,i
),
y de la definicion de µ∗,
µ∗(
∞⋃
n=1
∞⋃
i=1
Cn,i
)≤
∞
∑n=1
∞
∑i=1
λ(Cn,i) <
∞
∑n=1
(µ∗(En) +
ǫ
2n
)=
∞
∑n=1
µ∗(En) + ǫ.
El resultado es ahora consecuencia del hecho que ǫ > 0 es arbitrario.
Ası queda demostrado que µ∗ es una medida exterior, que extiende a λ.
¤
2.5.2. La medida de contar
Definicion 2.5.3. Sea K = K(X) el conjunto de todos los subconjuntos compactos de un
conjunto X. Se define el operador contador o contador de puntos a la funcion
N : K −→ N∪ 0,
definida como
N(B) =∞
∑n=1
δxn(B),
donde δx(A) es el delta de Dirac de x en A.
2.5 Teorema de Caratheodory y la medida de Conteo 28
El operador contador satisface las siguientes propiedades:
(i) N(∅) = 0.
(ii) Si A, B son conjuntos disjuntos de K, entonces
N(A ⊔ B) = N(A) + N(B). (2.4)
Ademas se supone que el operador de conteo N es localmente finito, esto es,
N(B) < ∞,
para todo B ∈ K.
Claramente se nota que N es una premedida, luego por el teorema 2.5.2, la funcion
N∗ : P(X) −→ N∪ 0,
definida como
N∗(E) = inf
∞
∑i=1
N(Ci) : Ci ∈ UE
= inf
∞
∑i=1
∞
∑n=1
δxn(Ci) : Ci ∈ UE
,
donde UE = Ci ⊂ K : E ⊂ ⋃∞i=1 Ci, es una medida exterior, que extiende a N. Por el
Teorema de Caratheodory se tiene que
MN∗ = E ⊂ X : N∗(A) = N∗(A ∩ E) + N∗(A ∩ Ec), ∀A ⊂ X
es una σ-algebra y N∗|MN∗ es una medida.
Proposicion 2.5.1. Sea (X, ρ) un espacio metrico segundo numerable. La σ-algebra generada por
el sistema de los compactos K de X coincide con la σ-algebra de Borel en X, es decir
B(X) = σ(K).
La demostracion de esta proposicion es un clasico ejercicio de Teorıa de la Medida.
Puede ser consultado en el capıtulo 1, de [3].
¤
Teorema 2.5.3. La σ-algebra de Borel B(X) esta contenida en MN∗ .
Demostracion:
Como MN∗ es una σ-algebra, por la proposicion 2.5.1, la clase K(X) de los conjuntos
compactos de X genera a B(X), es decir, basta ver que K ⊂ MN∗ .
2.5 Teorema de Caratheodory y la medida de Conteo 29
Sean K ∈ K y A ⊆ X. Vease que
N∗(A) ≥ N∗(A ∩ K) + N∗(A ∩ Kc).
En efecto, si N∗(A) = ∞, la desigualdad es evidente. Por lo tanto, considerese N∗(A)
finito. Dado ǫ > 0, se puede hallar una sucesion de conjuntos compactos (Kn)∞n=1 ∈ K tal
que A ⊂ ⋃∞n=1 Kn y
N∗(A) + ǫ ≥∞
∑n=1
N(Kn).
Usando la aditividad finita de N en K, expresion (2.4),
∞
∑n=1
N(Kn) =∞
∑n=1
N [(Kn ∩ K) ∪ (Kn ∩ Kc)]
=∞
∑n=1
[N(Kn ∩ K) + N(Kn ∩ Kc)]
=∞
∑n=1
N(Kn ∩ K) +∞
∑n=1
N(Kn ∩ Kc).
Puesto que N coincide con N∗ en los compactos, A ∩ K ⊂ ⋃∞n=1(Kn ∩ K), A ∩ Kc ⊂
⋃∞n=1(Kn ∩ Kc) y N∗ es monotona,
∞
∑n=1
N(Kn ∩ K) +∞
∑n=1
N(Kn ∩ Kc) =∞
∑n=1
N∗(Kn ∩ K) +∞
∑n=1
N∗(Kn ∩ Kc)
≥ N∗(
∞⋃
n=1
(Kn ∩ K)
)+ N∗
(∞⋃
n=1
(Kn ∩ Kc)
)
> N∗(A ∩ K) + N∗(A ∩ Kc).
Como ǫ > 0 es arbitrario, se tiene el resultado.
¤
De ahora en adelante sera denotado por ν a la restriccion N∗|B(X).
Proposicion 2.5.2. Si µ1 y µ2 son dos medidas cuales quiera en (X,B) que coinciden en los
subconjuntos compactos de X y son finitas en dichos conjuntos compactos entonces, µ1 y µ2
coinciden en B.
Esquema de la demostracion:
Sean µ∗1 y µ∗
2 las medidas que extienden a µ1 y µ2 respectivamente, ya que µ1 y µ2
estan definidas en K. Dado que µ1 y µ2 coinciden en K, K genera la σ-algebra de Borel
y la unicidad de la medida exterior, que extiende a µ1 y µ2, se tiene que µ∗1(B) = µ∗
2(B)
∀B ∈ B(X). Ası se llega al resultado.
¤
2.6 Medidas Aleatorias y Procesos Puntuales 30
Teorema 2.5.4. ν es la unica medida en B(X) que coincide con el operador N en los compactos.
Demostracion:
Sea µ otra medida en B(X) que coincide con N en los compactos. Entonces
µ(K) = ν(K) = N(K) < ∞,
para todo K ∈ K(X). Por la porposicion 2.5.2, se tiene que µ(B) = ν(B), ∀B ∈ B(X).
¤
2.6. Medidas Aleatorias y Procesos Puntuales
A partir de este momento, a menos que se indique lo contrario, se considera (X, ρ)
un espacio Polaco (espacio metrico, completo y separable, esto es, un espacio metrico
completo que tiene un subconjunto denso numerable), el cual es locamlmente compacto,
es decir, para cada x ∈ X existe un entorno de tal x con clausura compacta. Como en
las secciones anteriores, se denotan O = O(X), F = F (X) y K = K(X) a los sistemas
de todos los subconjuntos abiertos, cerrados y compactos de X respectivamente; y de la
manera usual se denota la σ-algebra de Borel en X como B = B(X).
Definicion 2.6.1. Una medida µ en (X,B(X)) se dice que es localmente finita si esta es
finita en conjuntos acotados de Borel.
Sea M ≡ M(X) el conjunto de todas las medidas localmente finitas en (X,B).
Entonces es denotado por
N ≡ N (X) = ν ∈ M : ν(B) ∈ N∪ 0, ∞, ∀B ∈ B ,
al conjunto de todas las medidas localmente finita que toman valores enteros.
En el siguiente teorema se nota que el conjunto N da suficiente informacion de la
estructura del grafo en todas las realizaciones del proceso puntual. Para demostrar dicho
teorema se necesita la siguiente proposicion.
Proposicion 2.6.1. (Sumas no numerables)
Sea E un conjunto de numeros reales positivos. Se define
∑x∈E
x = supF∈PF
SF = supF∈PF
∑x∈F
x,
donde PF (E) = F ⊂ E : #(F) < ∞.
Entonces,
2.6 Medidas Aleatorias y Procesos Puntuales 31
(i) Si ∑x∈E x < ∞, E es numerable.
(ii) Si E es numerable y xn∞n=1 una enumeracion de E,
∑x∈E
x =∞
∑n=1
xn.
Teorema 2.6.1. Sea (X,A) un espacio medible y µ : A → [0, ∞) una medida σ − f inita que
toma solo valores enteros, y supongase que A contiene a todos los subconjuntos unitarios de X.
Entonces existe un conjunto numerable Z = xnn∈N tal que
µ =∞
∑n=1
λnδXn ,
es una combinacion lineal entera de funciones de δ − Dirac.
Demostracion:
Considerese el conjunto Z = x ∈ X : µ(x) > 0. Como µ es σ-finita, se tiene que
existe una sucesion de conjuntos (An)∞n=1 ∈ A tal queX =
∞⋃
n=1
An,
con µ(An) < ∞, ∀n ∈ N. Entonces por monotonıa de µ, µ(An ∩ Z) < ∞, ∀n ∈ N. Usando
la proposicion 2.6.1, para cada n ∈ N, An ∩ Z es numerable.
Puesto que
Z = Z ∩X = Z ∩∞⋃
n=1
An =∞⋃
n=1
(Z ∩ An),
se tiene que Z es numerable.
Sea U = x : x ∈ X. Por hipotesis U ⊂ A, esto implica que para todo x en U se
tiene que x es un conjunto medible. Por lo tanto se puede escribirX = Z ∪ Zc.
Sea A ∈ A. Notese que µ(A ∩ Zc) = 0. En efecto, si A ∩ Zc = ∅, no hay nada que
probar. Supongase que A ∩ Zc 6= ∅ y µ(A ∩ Zc) > 0. Puesto que A es arbitrario, tomando
A = x0 se tiene que
0 < µ(A ∩ Zc) = µ(x0 ∩ Zc) ≤ µ(x0),
es decir x0 ∈ Zc y esto es una contradiccion. Por lo tanto µ(A ∩ Zc) = 0.
2.6 Medidas Aleatorias y Procesos Puntuales 32
Ahora sea xn∞n=1 una enumeracion de Z, entonces
µ(A) = µ(A ∩X) = µ(A ∩ (Z ∪ Zc))
= µ(A ∩ Z) + µ(A ∩ Zc) = µ(A ∩ Z)
= µ
(A ∩
∞⊔
n=1
xn)
= µ
(∞⊔
n=1
(A ∩ xn))
=∞
∑n=1
µ(A ∩ xn) =∞
∑n=1
µ(xn)δxn(A)
=∞
∑n=1
λnδxn(A),
donde λn = µ(xn) ∈ N.
¤
Ahora se procede a generar una σ-algebra en N .
Un evento basico de un proceso puntual en X es el evento que tiene exactamente k
puntos en la region B,
EB,k = ν(B) = k = ν ∈ N : ν(B) = k
para cada B ∈ K y k = 1, 2, · · · .
Sea EN = EB,k : B ∈ K y k ∈ N∪ 0 el conjunto de todos los eventos basicos de un
proceso puntual en X.
Proposicion 2.6.2. EN es sub-base de alguna topologıa en N .
Demostracion:
Se quiere ver que,
S =
n⋂
i=1
EiB,k : B ∈ K ∧ k ∈ N∪ 0
es base de alguna topologıa en N . En efecto,
(i) Es claro que
N =⋃
E∈S
E.
(ii) Sean E1, E2 ∈ S, entonces existen
E1iB,k
n
i=1y
E
2jB,k
m
j=1tales que E1 =
⋂ni=1 E1i
B,k y
E2 =⋂m
j=1 E2jB,k. Por lo tanto,
E1 ∩ E2 =n⋂
i=1
E1iB,k ∩
m⋂
j=1
E2jB,k ∈ S.
2.6 Medidas Aleatorias y Procesos Puntuales 33
¤
De la proposicion anterior se llega al siguiente corolario.
Corolario 2.6.1. El conjunto de todos los eventos basicos EN genera una topologıa TN en N .
Ahora con la topologıa TN generada por los eventos basicos EN se tiene la σ-algebra
de Borel B(N ) de N , esto es, la σ-algebra generada por los eventos basicos del proceso
puntual, es decir,
B(N ) = σ(EN ),
los borelianos de N son generados por los conjuntos EB,k = ν : ν(B) = k para cada
B ∈ K y k ∈ N∪ 0.
Con la σ-algebra de Borel en N en manos, se puede proceder a definir formalmente un
proceso puntual de la siguiente manera.
Definicion 2.6.2. Sea (Ω,A,P) un espacio de probabilidad y MM una σ-algebra en M.
Una medida aleatoria en X es una funcion
Ψ : (Ω,A,P) −→ (M, MM),
tal que esta es medible.
Un proceso puntual en X es una medida aleatoria
Φ : (Ω,A,P) −→ (N ,B(N )),
donde el espacio medible (N ,B(N )) es llamado espacio de resultados del proceso
puntual en X.
La definicion anterior dice que cada resultado elemental ω ∈ Ω determina un resultado
νω ∈ N y del teorema 2.6.1 se sabe que es un resultado xn(ω)∞n=1 del proceso puntual.
Ademas, notese que la medibilidad es el requerimiento tal que para cualquier evento
E ∈ B(N ), el evento
Φ−1(E) = ω ∈ Ω : Φ(ω) ∈ E = ω ∈ Ω : νω ∈ E, νω ∈ N ∈ A.
Definicion 2.6.3. La distribucion de un proceso puntual Φ es la medida de probabilidad,PΦ, sobre el espacio de resultados (N ,B(N )), definida porPΦ(E) = PΦ−1(E),
con E ∈ B(N ).
2.6 Medidas Aleatorias y Procesos Puntuales 34
Definicion 2.6.4. La medida de intensidad o simplemente intensidad de un proceso
puntual Φ, es la medida
Λ(ω) = EΦ(ω) =∫
Φ(ω)dPΦ,
con ω ∈ Ω.
Observacion 2.6.1. La medida de intensidad Λ no necesita ser localmente finita en
general.
Definicion 2.6.5. Sea Φ un proceso puntual. Se dice que Φ es un proceso puntual simple
si P(Φ ∈ N ∗) = 1, donde
N ∗ = ν ∈ N : ν(x) ≤ 1, ∀x ∈ X .
Ejemplo 2.6.1. Proceso Binomial
Para tomar un ejemplo muy simple, sea un numero fino n de puntos al azar
localizados dentro de una region acotada W ⊂ R2. Sean x1, · · · , xn puntos aleatorios
i.i.d(independientes e identicamente distribuidos) que estan uniformemente distribuidos
en W. Por lo tanto, la densidad de probabilidad de cada xi, es:
f (x) =
1/m2(W) si x ∈W
0 en otro caso
donde m2(W) denota la medida de Lebesgue en R2. La realizacion de este proceso es
mostrado en la siguiente figura:
Figura 2.9: Puntos al azar distribuidos uniformemente enW.
2.7 Conjunto Cerrado Aleatorio 35
Ya que cada punto aleatorio xi esta uniformemente distribuido enW, se tiene que para
cualquier conjunto acotado B ⊂ R2,P(xi ∈ B) =∫
Bf (x)dx =
∫
B∩W f (x)dx +∫
B−W f (x)dx
=∫
B∩W 1
m2(W)dx =
m2(B ∩W)
m2(W)= p,
donde p es la probabilidad de exito de que xi este en el compacto B.
Puesto que la variable,
N(B) =n
∑i=1
δxi(B),
considerando todos los xi , se deduce facilmente que N(B) tiene una distribucion
binomial con parametro n (numero de pruebas ) y probabilidad p = m2(B∩W)m2(W)
, por lo
tando este proceso es un proceso Binomial B(n, p).
Notese que este ejemplo se puede extender para cualquier espacioX, metrico segundo
numerable con medida de Lebesgue en X, mX.
Observacion 2.6.2. El operador de conteo N(B) para diferentes subconjuntos Bk las
variables aleatorias N(Bk) no son independientes, esto es pues si por ejemplo B1 y B2 son
dos conjuntos compactos disjuntos sobre una region W con un numero finito de puntos,
N(W) = n, entonces N(B1) y N(B2) deben ser dependientes, ya que
N(B1) ≤ n − N(B2).
2.7. Conjunto Cerrado Aleatorio
Un proceso puntual simple puede ser formulado de manera completamente diferente
ya que puede considerarse como un conjunto aleatorio Ξ. Si se sabe el valor de N(B) para
todo subconjunto compacto B deX, entonces se puede determinar la ubicacion exacta de
cada punto x en el proceso puntual (simple).
Definicion 2.7.1. ([2], Seccion 2.1). Un conjunto S ⊂ X es localmente finito si su
interseccion con cualquier conjunto acotado es finita.
Proposicion 2.7.1. Sea (X, T ) un espacio topologico. Un conjunto S ⊂ X es localmente finito,
si y solo si, para todo x ∈ X existe un entorno Ux ∈ T de x tal que S ∩ Ux es finito.
2.7 Conjunto Cerrado Aleatorio 36
Demostracion:
(=⇒) Sea x ∈ X y A un subconjunto acotado deX tal que x ∈ A. Sea Γ = Uα : α ∈ Λun cubrimiento abierto de A, entonces existe α0 ∈ Λ tal que x ∈ Uα0 ∈ T . Puesto que
S ∩ A es finito y S ∩ Uα0 ⊂ S ∩ A, entonces S ∩ Uα0 claramente es finito.
(⇐=) Sea A ⊂ X un conjunto acotado. Entonces existe x0 ∈ A y r0 > 0 fijos, tales que
A ⊂ b(x0, r0), donde b(x, r) denota la bola abierta de centro x y radio r > 0. Puesto queXes metrico, b(x0, r0) es compacto. Por tanto, dado Γ = Ux ∈ T cubrimiento de b(x0, r0)
se puede extraer de este, un cubrimiento finito Γ′ = Uxk∈ T : k = 1, · · · , n de b(x0, r0).
En consecuencia,
S ∩ A ⊂ S ∩ b(x0, r0) ⊂ S ∩ b(x0, r0) ⊆ S ∩n⋃
k=1
Uxk=
n⋃
k=1
(S ∩ Uxk),
es finito, ya que por hipotesis S ∩ Ux es finito ∀x ∈ X.
¤
Definicion 2.7.2. ([2], Seccion 1.1). Sea (X, T ) un espacio topologico. El soporte de una
medida µ, sop(µ) en (X,B(X )) se define como
sop(µ) =⋂F ∈ F : µ(Fc) = 0.
Notese que el soporte de una medida µ es el menor conjunto cerrado tal que µ
“desaparece” en su complemento.
Ejemplo 2.7.1. Soporte de la medida de Lebesgue en R.
Sea F ⊆ R cerrado. EntoncesR⊔ (R− F), esto implica que, m(R) = m(F) + m(R− F).
Si m(R− F) = 0, se tiene que m(R) = m(F), por tanto, R = F ya que m(R− F) = 0 y
F ⊆ R. Ası,
sop(m) =⋂F ∈ R cerrado : m(R− F) = 0 = R.
Ejemplo 2.7.2. Soporte de la medida de contar ν ∈ N . Por el teorema 2.6.1, si ν ∈ Nentonces existe un conjunto Zν = xnn≥1 tal que
ν =∞
∑n=1
λnδxn ,
donde λn = ν(xn) ∈ Z, ∀n ∈ N.
Sea F un conjunto cerrado en X, ası
ν(Fc) =∞
∑n=1
λnδxn(Fc) = 0 ⇐⇒ δxn(Fc) = 0, ∀n ∈ N⇐⇒ xn ∈ F, ∀n ∈ N.
2.7 Conjunto Cerrado Aleatorio 37
Puesto que, Zν = xnn≥1 es un subconjunto cerrado de X, se tiene que,
sop(ν) =⋂F ⊂ X cerrado : ν(Fc) = 0
=⋂F ⊂ X cerrado : Zν ⊆ F
= Zν = Gr(ω),
para algun ω ∈ Ω.
Observacion 2.7.1. Notese que el grafo asociado a un evento ω0 ∈ Ω, Gr(ω0), puede ser
el mismo para otros eventos ω ∈ Ω. Vease el siguiente ejemplo ilustrado.
Sea X = xn : n ∈ N una caminata aleatoria, donde cada paso aleatorio tiene espacio
de estados E = (±1, 0), (0,±1) y espacio muestral Ω. Dado ω0 ∈ Ω, supongase que
para tal evento ω0 se tiene la siguiente trayectoria xn(ω0) : n ∈ N y xn = x8∀n ≥ 9,
vease figura 2.10.
Figura 2.10: Trayectoria para ω0 ∈ Ω de la caminata aleatoria X .
El grafo asociado a ω0 ∈ Ω, Gr(ω0), es mostrado en la figura 2.11.
¿Cuantas trayectorias distintas a xn(ω0) : n ∈ N pueden tener asociado el mismo
grafo, Gr(ω0)? La respuesta a esta pregunta esta dividida en varios casos, ya que depende
de las caracterısticas del proceso puntual en estudio.
(i) Para una caminata aleatoria cuyo punto de partida de las realizaciones no es
conocido, entonces hay infinitas trayectorias distintas asociadas al grafo Gr(ω0),
pues pueden haber infinitas trayectorias que se “muevan” en esos nueve puntos del
grafo Gr(ω0).
2.7 Conjunto Cerrado Aleatorio 38
Figura 2.11: Grafo asociado a la caminata aleatoria de la figura 2.10.
(ii) Para una caminata aleatoria cuyo punto de partida de las realizaciones es conocido,
entonces hay tambien infinitas trayectorias distintas asociadas al grafo Gr(ω0). La
razon de esta afirmacion es muy similar a la anterior, puesto que la restriccion a
conocer el punto de partida no limita a que infinitas trayectorias distintas a la de la
figura 2.10 se den en esos nueve puntos.
(iii) Para una caminata aleatoria simple(en x0, · · · , x7) cuyo punto de partida de las
realizaciones (trayectorias) no es conocido, entonces hay solamente una trayectoria
distinta, y estas se muestran en la figura 2.12.
Figura 2.12: Una trayectoria distinta a la de la figura 2.10 y con el mismo grafo Gr(ω0) de la figura
2.11.
2.7 Conjunto Cerrado Aleatorio 39
(iv) Si la caminata aleatoria es simple(en x0, · · · , x7) y se conoce el punto de partida
de las realizaciones, indudablemente para este grafo, Gr(ω0), no hay ninguna
trayectoria distinta (en estos nueve puntos) a la ya mostrada en la figura 2.10.
Depende de la complejidad del proceso si el “grafo de ω”, Gr(ω), con ω ∈ Ω
suministra la informacion necesaria para describir las realizaciones del proceso puntual,
evidentemente se tendra mas ventaja al conocer el grafo de todas las realizaciones , Gr(ω)
con ω ∈ Ω, si el proceso puntual es simple (ya que el numero de realizaciones que tengan
el mismo grafo asociado es “pequeno”), desde el punto de vista de medidas aleatorias,
esto quiere decir que es notorio que casi todas las realizaciones de un proceso puntual Φ
estan caracterizadas por su soporte, sop(Φ), el cual es un subconjunto localmente finito
de X(se probara en el siguiente teorema). Por esta razon los proceso puntuales simples
son a menudo interpretados como subconjuntos cerrados aleatorios localmente finitos deX.
Teorema 2.7.1. Para cada ν ∈ N el soporte de ν, sop(ν), es un subconjunto localmente finito deX. Ademas, N ∗ ∈ B(N ) y ν −→ sop(ν) es una funcion inyectiva de N ∗ al conjunto de todos
los subconjuntos localmente finito de X.
Demostracion:
Sea ν ∈ N una medida de contar, por el teorema 2.6.1, existe un conjunto Zν = xnn≥1
tal que
ν =∞
∑n=1
λnδxn ,
con λn ∈ N∪ 0 ∀n ∈ N, de donde sop(ν) = Zν = Gr(ω), para algun ω ∈ Ω.
Zν es localmente finito. En efecto, sea x ∈ X y sea b(x, r) la bola abierta de centro
x y radio r tal que 0 < r < ∞. Es claro que b(x, r) es un boreliano acotado de X. En
consecuencia
Zν ∩ b(x, r) =∞
∑n=1
λnδxn(b(x, r)) = ν(b(x, r)) < ∞.
Es decir, sop(ν) es localmente finito.
Siguiendo con la segunda parte del teorema, considerese EB,k y EN como en la
proposicion 2.6.2. Entonces,
N ∗ = ν ∈ N : ν(x) ≤ 1, ∀x ∈ X= ν ∈ N : ν(x) = 0, ∀x ∈ K ∪ ν ∈ N : ν(x) = 1, ∀x ∈ K= Ex,0 ∪ Ex,1.
2.7 Conjunto Cerrado Aleatorio 40
Como Ex,0 y Ex,1 estan en EN , entonces, Ex,0 ∪ Ex,1 ∈ σ(EN ).
Finalmente para probar la ultima parte del teorema, sean µ, ν ∈ N ∗ tal que
sop(µ) = sop(ν),
es decir,
Zµ = xnn≥1 = ymm≥1 = Zν.
Entonces existe una funcion biyectiva m : N −→ N tal que xn = ym(n), esto implica que
∞
∑n=1
δxn(B) =∞
∑m=1
δym(B), ∀B ∈ B,
es decir, µ = ν.
¤
La siguiente proposicion es util para explicar la conexion entre procesos puntuales
simples y conjuntos aleatorios.
Considerese el espacio F de todos los subconjuntos cerrados de un espacio Polaco Xincluyendo el conjunto vacıo.
Proposicion 2.7.2. Para cada compacto K ∈ K se define el conjunto,
FK = F ∈ F : F ∩ K = ∅.
Entonces la familia
EF = FK : K ∈ Kes base de alguna topologıa en F .
Demostracion:
Facilmente se ve que F es cubierto por los miembros de la familia EF , pues basta
tomar K = ∅ ∈ K, de donde
F∅ = F ∈ F : F ∩ ∅ = ∅ = F .
Sean K1, K2 ∈ K y teniendo en cuenta que la union finita de compactos es compacta,
se tiene que
FK1 ∩ FK2 = F ∈ F : F ∩ K1 = ∅ ∩ F ∈ F : F ∩ K2 = ∅= F ∈ F : F ∩ K1 = ∅ y F ∩ K2 = ∅= F ∈ F : F ∩ (K1 ∪ K2) = ∅= FK1∪K2 ∈ EF .
2.7 Conjunto Cerrado Aleatorio 41
En consecuencia EF es base de alguna topologıa en F .
¤
De la proposicion anterior se tiene directamente el siguiente corolario.
Corolario 2.7.1. La familia EF genera una topologıa TF en F .
Ahora con la topologıa TF generada por los conjuntos FK = F ∈ F : F ∩ K = ∅ se
tiene la σ-algebra de Borel B(F ) de F , que es la σ-algebra generada por los conjuntos de
cerrados FK,
B(F ) = σ(EF ),
es decir, los borelianos de F son generados por los conjuntos FK = F ∈ F : F ∩ K = ∅,
para cada K ∈ K. Con esta σ-algebra se termina de completar la estructura para dar la
siguiente definicion.
Definicion 2.7.3. Sea (Ω,A,P) un espacio de probabilidad. Un conjunto cerrado
aleatorio en X es una funcion medible
Ξ : (Ω,A,P) −→ (F ,B(F )).
Teorema 2.7.2. Si Φ es un proceso puntual en X entonces el soporte supp Φ es un conjunto
cerrado aleatorio. Por otro lado, si Ξ es un conjunto cerrado localmente finito en X (es decir, un
conjunto cerrado aleatorio enX tal que Ξ(ω) es localmente finito para cualquier ω ∈ Ω) entonces
Φ(·) = card(Ξ ∩ ·) es un proceso puntual simple en X.
Para ver la demostracion de este teorema, consulte [2], seccion 2.1, teorema 2.5.
CAPITULO 3
Medida de Hausdorff
Para definir los conjuntos k-rectificables es necesario introducir una nueva medida,
derivada de la construccion de Caratheodory por cubrimientos con bolas abiertas k-
dimensionales de subconjuntos de un espacio metrico X. Esta medida se caracteriza por
medir conjuntos bastante irregulares como los grafos de fractales. Como herramienta
previa para la construccion de la medida de Hausdorff se hace una breve revision de
un caso particular de la construccion de Caratheodory, como se presenta en la seccion a
continuacion.
3.1. Construccion de Caratheodory en un espacio metrico
En la seccion 2.5 ya fue revisado la extension de premedidas a medidas por el Teorema
de Carhatheodory usando cubrimientos cuyos conjuntos que cubren “son bastante
generales”, en esta seccion se usa una clase particular de cubrimientos, la clase de los
conjuntos deX, que tienen “diametro”, definido como el supremo de las longitudes entre
cada dos puntos de determinado conjunto), es decir, si A ⊂ X, el diametro de A es
diam(A) = supx,y∈A
‖x − y‖,
donde ‖ · ‖ es una norma en X.
Sea X un espacio metrico y C una coleccion de subconjuntos de X, que contienen al
vacıo. Considerese la premedida λ : C −→ [0, ∞].
A partir de esta premedida se construyen medidas preliminares λδ para 0 < δ ≤ ∞ de
la siguiente manera:
42
3.1 Construccion de Caratheodory en un espacio metrico 43
Para E ⊂ X y δ > 0 se tiene que,
λδ(E) = inf
∞
∑i=1
λ(Ci) : (Ci) ∈ UE,δ
,
donde UE,δ =(Ci)
∞i=1 ∈ C ∈ C : diam(C) ≤ δ : E ⊂ ⋃∞
i=1 Ci
.
Observacion 3.1.1. Notese que estas medidas λδ son medidas exteriores construidas a
partir de premedidas λ por cubrimientos cuyos elementos son de diametro menor o igual
a δ.
Proposicion 3.1.1. Las medidas preliminares λδ son decrecientes respecto a δ. Es decir, dado
0 < δ ≤ ǫ ≤ ∞ entonces λδ ≥ λǫ.
Demostracion:
Sean δ, ǫ numeros positivos tales que 0 < δ ≤ ǫ ≤ ∞. Entonces dado E ∈ X, claramente
que todo cubrimiento E mediante δ es un cubrimiento de E mediante ǫ, esto es,
UE,δ =
(Ci)
∞i=1 ∈ C ∈ C : diam(C) ≤ δ : E ⊂
∞⋃
i=1
Ci
⊆
(Ci)∞i=1 ∈ C ∈ C : diam(C) ≤ ǫ : E ⊂
∞⋃
i=1
Ci
= UE,ǫ.
Por lo tanto,
inf
∞
∑i=1
λ(Ci) : (Ci) ∈ UE,ǫ
≤ inf
∞
∑i=1
λ(Ci) : (Ci) ∈ UE,δ
.
¤
De la proposicion anterior se desprende el siguiente corolario.
Corolario 3.1.1. Para cada E ⊆ X,
µ(E) = lımδ−→0+
λδ(E)
existe, y ademas
µ(E) = supδ>0
λδ(E)
siempre que E ⊂ X.
La funcion µ es llamada el resultado de la construccion de Caratheodory de la
premedida λ en C, y λδ la medida aproximada de tamano δ.
Notese que todos los subconjuntos abiertos de X son µ-medibles (por criterio de
Caratheodory). Sin embargo, no todos los subconjuntos abiertos de X son λδ-medibles.
3.2 Construccion de la medida de Hausdorff 44
3.2. Construccion de la medida de Hausdorff
Considerese X = Rn con la metrica usual en Rn. Sea Ck la clase de todas las bolas
abiertas de Rk con k ≤ n. Para cada k ∈ 0, 1, 2, · · · , n fijo, sea
mk : Ck −→ [0, ∞),
donde mk es la medida de Lebesgue restringida a la clase Ck en P(Rk).
Lema 3.2.1. Para todo ǫ > 0 y f medible positiva, se tiene que
∫Rnf (ǫx)dx = ǫ−n
∫Rnf (x)dmn(x),
donde mn es la medida de Lebesgue en Rn.
Este Lema es tomado de [8], Lema 7.2.1.
Proposicion 3.2.1. Para cada k ∈ 0, 1, 2, · · · , n fijo, la medida k-esima
mk : Ck −→ [0, ∞)
de Lebesgue en Ck ⊂ P(Rn) es
mk(bk(x, ρ)) = αkρk,
donde αk = πk/2
Γ((k+2)/2), Γ(.) la funcion Gamma y bk(x, ρ) es la bola abierta k-dimensional de
centro x ∈ Rk y radio ρ ≥ 0 en Ck.
Demostracion:
Sea bkρ = bk(x, ρ) ∈ Ck una bola abierta de radio ρ > 0 en Rk. Entonces por el lema
3.2.1,
mk(bkρ) =
∫
x:‖x‖<ρdx =
∫x:
∥∥∥xρ ∥∥∥<1 dx = ρk
∫
x:‖x‖<1dx = ρkαk,
donde αk es el volumen de la bola k-dimensional de radio 1. Por lo tanto, basta calcular
αk. En efecto,
αk =∫
x:‖x‖<1dx =
∫ 1
−1
(∫
x22+x2
3+···+x2k<1−x2
1
dx2dx3 · · · dxk
)dx1.
Notese que la integral entre parentesis es igual al volumen de la bola k − 1-dimensional
de radio (1 − x21)
1/2 en Rk−1, entonces usando nuevamente el lema 3.2.1,
∫
x22+x2
3+···+x2k<1−x2
1
dx2dx3 · · · dxk = (1− x21)
k−12
∫
x22+x2
3+···+x2k<1
dx2dx3 · · · dxk = (1− x21)
k−12 αk−1.
3.2 Construccion de la medida de Hausdorff 45
Entonces
αk =∫ 1
−1(1 − x2
1)k−1
2 λk−1dx1 = λk−1
∫ 1
−1(1 − x2
1)k−1
2 dx1 = αk−1 Ik−1,
donde Ik =∫ 1−1(1 − t2)k/2dt, para k = 2, 3, · · · , n.
Calculando Ik,
Ik =∫ 1
−1(1 − t2)k/2dt = 2
∫ 1
0(1 − t2)k/2dt = 2
∫ π/2
0cosk+1θdθ
= 2k∫ π/2
0sen2cosk−1θdθ = k
(∫ π/2
0cosk−1θdθ −
∫ π/2
0cosk+1θdθ
)= k(Ik−2 − Ik),
es decir,
Ik =k
k + 1Ik−2.
Teniendo en cuenta que I0 = 2, I1 = π/2 se tiene que,
I2k =2k+1k!
1.3. · · · .(2k + 1)
y
I2k+1 =(2k + 1)
2k+1(k + 1)!π.
Dado que
αk = αk−1 Ik−1 =k−1
∏j=0
Ij,
entonces
α2k =2k−1
∏j=0
Ij =k−1
∏j=0
(I2j I2j+1) =k−1
∏j=0
π
j + 1=
πk
k!=
πk
Γ(k + 1)
y
α2k+1 =2k
∏j=0
Ij = I2k
2k−1
∏j=0
=2k+1πk
1.3. · · · .(2k + 1)=
πk+1/2
Γ(k + 3/2),
ası,
αk =πk/2
Γ((k + 2)/2).
¤
Teniendo la premedida k-esima mk se puede definir la medida k-esima de Hausdorff
como sigue.
3.3 Propiedades de la medida de Hausdorff 46
Sea E ⊆ Rn y δ > 0, la k-esima medida aproximada de Hausdorff de tamano δ es
Hkδ(E) = inf
∞
∑i=1
mk(bρi) : (bρi
) ∈ UE,δ
= inf
∞
∑i=1
αkρki : (Bρi
) ∈ UE,δ
,
donde ρi es el radio de la bola abierta bρi,
UE,δ =
(bρi
)i∈N ∈ Cn : ρi <δ
2, ∀i ∈ N y E ⊂
∞⋃
i=1
bρi
y
αk =πk/2
Γ( k2 + 1)
.
Usando el Corolario 3.1.1, se llega a la siguiente medida:
Hk(E) = lımδ−→0+
inf(bρi
)∈UE,δ
∞
∑i=1
αkρki ,
llamada, la medida de Hausdorff Hk de orden k en Rn.
3.3. Propiedades de la medida de Hausdorff
La medida de Hausdorff Hk de orden k, para cualquier k ∈ 0, 1, · · · , n fijo, cumple
con las siguientes propiedades:
1. Definida positiva, nula para el conjunto vacıo, monotona y sub-σ aditiva; es decir,
(i) Hk(E) ≥ 0 para cualquier E ⊆ Rn,
(ii) Hk(∅) = 0,
(iii) Si E ⊆ E′, entonces Hk(E) ≤ Hk(E′),
(iv) Si E =⋃
j Ej, entonces Hk(E) ≤ ∑j Hk(Ej).
2. Por Caratheodory, existe una σ-algebra MHk llamada σ-algebra de conjuntos Hk-
medibles.
3. Puesto que Hk se construye usando el Teorema de Caratheodory partiendo de
cubrimientos por bolas abiertas, entonces, todo boreliano es Hk-medible, es decir,
B(X) ⊆ MHk
4. La medida de Hausdorff de orden n coincide con la medida exterior de Lebesgue,
Hn = m∗.
3.4 Ejemplos 47
5. Sea Z = xini=1 un subconjunto finito en Rn. Entonces existe ρ > 0 tal que
Z ⊂n⊔
i=1
b(xi, ρ),
donde b(xi, ρ) es la bola de centro xi y radio ρ. Ası,
H0(Z) = lımδ−→0+
inf
n
∑i=1
α0ρ0 : Z ⊂n⊔
i=1
B(xi, ρ) con ρ <δ
2
= lım
δ−→0+
n
∑i=1
1 = n = N(Z),
donde N es la medida de contar (vease figura 3.1), y
Hk(Z) = lımδ−→0+
inf
n
∑i=1
αkρk : Z ⊂n⊔
i=1
b(xi, ρ) con ρ <δ
2
= lım
δ−→0+αkρkn = 0,
siempre que k ≥ 1. Por lo tanto, si Z es un conjunto finito entonces
Hk(Z) =
N(Z) si k = 0
0 si k > 0
Figura 3.1: Conjunto finito de puntos enR2
3.4. Ejemplos
Sea X = R2. A continuacion se hace una revision de la k-medida de Hausdorff para
tres subconjuntos basicos de dicho espacio.
3.4 Ejemplos 48
Ejemplo 3.4.1.
(i) Un punto. Por la propiedad 5 de la medida de Hausdorff, se tiene directamente que,
Hk(Z) =
1 si k = 0
0 si k = 1, 2
(ii) Un segmento de recta. Sin perdida de generalidad, considerese dicho segmento
como un intervalo I = [a, b]. Por las propiedades 4 y 5 de la medida de Hausdorff,
se tiene de manera respectiva que H2(I) = 0 y H0(I) = ∞. Ahora bien, para k = 1
sea δ > 0 y n ∈ N tal que (vease Figura 3.2)
ρ =b − a
2n<
δ
2.
Entonces,
H1δ(I) =
n
∑k=1
α1ρ =n
∑k=1
2(b − a)
2n= b − a.
Puesto que δ −→ 0+ ⇐⇒ n −→ ∞, se tiene que
H1(I) = lımδ−→0+
H1δ(I) = b − a.
(iii) Un rectangulo. Analogamente a la parte (ii), sea R = [a, b] × [c, d] un rectangulo
en R2. Por las propiedades 4 y 5 de la medida de Hausdoff, se tiende de manera
respectiva que las medidas H2(R) = (b − a)(d − c) y H0(R) = ∞. Ahora bien, para
k = 1 sea δ > 0 y n ∈ N tal que (vease Figura 3.2)
ρ = max
b − a
n,
d − c
n
<
δ
2.
Entonces,
H1δ(R) =
n2
∑k=1
α1ρ =n2
∑k=1
2 max
b − a
n,
d − c
n
= 2n maxb − a, d − c.
Puesto que δ −→ 0+ ⇐⇒ n −→ ∞, se tiene que
H1(R) = lımδ−→0+
H1δ(R) = lım
n−→∞2n maxb − a, d − c = ∞.
3.4 Ejemplos 49
Figura 3.2: Intervalo I y rectangulo R para el calculo de sus k-medidas de Hausdorff enR2.
Ejemplo 3.4.2. Sea S = (x, y) : x2 + y2 = R2, y ≥ 0. Por las propiedades 4 y 5 de la
medida de Hausdorff, se tiene respectivamente que H2(S) = 0 y H0(S) = ∞. Por lo tanto
basta realizar el calculo para k = 1. En efecto, sea ρbi= π
2n R, ∀i ∈ N (Vease figura 3.3).
Entonces,
inf(bi)
n
∑i=1
ρbi= inf
(bi)
n
∑i=1
(πR
2n
)=
πR
2.
Como ρbi<
δ2 , se tiene que, δ −→ 0+ ⇐⇒ n −→ ∞. Ası,
H1(S) = lımn−→∞
α1πR
2= πR.
Figura 3.3: Cubrimiento de la Semicircunferencia S por bolas abiertas bi de radio ρbi= π
2n R.
CAPITULO 4
Tangencia Conica y Rectificabilidad
En este capıtulo se considera una generalizacion de la tangencia lineal, la tangenca
conica, que es de mucha utilidad sobre todo en aquellos puntos donde la tangencia lineal
no esta definida. Se trata este tipo de tangencia y algunas definiciones necesarias para
introducir los conceptos de rectificabilidad y ası enunciar el Teorema de la Tangencia
Conica que caracteriza la existencia de tangentes lineales k-dimensionales en casi todos
los puntos (respecto a la medida de Hausdorff de orden k) de un determinado conjunto.
4.1. Tangencia Conica
Para generalizar el concepto de plano tangente o recta tangente (para superficies o
curvas regulares respectivamente), se introduce el concepto de tangencia conica en un
punto de un conjunto cualquiera de un espacio vectorial normado.
Definicion 4.1.1. Sea X un espacio vectorial normado, A ⊂ X y a ∈ A ⊂ X. El cono
tangente de A en a, es el cono cerrado en X, Tan(A, a) ⊆ ~0, tal que: Dado u ∈ X no
nulo, u ∈ Tan(A, a) si y solo si para cualquier ǫ > 0 existe b ∈ A con 0 < ‖b − a‖ < ǫ y
∥∥∥∥u
‖u‖ − (b − a)
‖b − a‖
∥∥∥∥ < ǫ.
Observacion 4.1.1. Propiedades de la tangencia conica:
1. Si u ∈ Tan(A, a) y 0 ≤ t ∈ R entonces tu ∈ Tan(A, a).
2. Tan(A, a) = Tan(A, a).
50
4.1 Tangencia Conica 51
3. Tan(A, a) ∩ v : ‖v‖ = 1 =⋂
ǫ>0
b−a
‖b−a‖ : a 6= b ∈ A ∩ B(a, ǫ)∪ 0.
4. Si f : X −→ Y tal que Y es un espacio vectorial normado y f es diferenciable en
a ∈ A ⊂ X, entonces
D f (a) [Tan(A, a)] ⊆ Tan ( f (A), f (a)) .
Esta ultima propiedad se aprecia mediante el siguiente ejemplo ilustrado.
Ejemplo 4.1.1. Sean A = (t, |t|) : t ∈ R, a = (0, 0) y f (x, y) = (x, y2). Entonces el
cono tangente de A en (0, 0) es
Tan(A, (0, 0)) = (t, t), (t,−t)t≥0
y el diferencial de f es
D f (x, y) =
(1 0
0 2y
)
Por tanto para cualquier t ≥ 0
D f (0, 0)[t t]T = [t 0]T y D f (0, 0) = [t − t]T = [−t 0]T,
es decir,
D f (0, 0)[Tan(A, (0, 0))] = (t, 0) : t ∈ R ⊆ Tan( f (A), f (0, 0)).
Figura 4.1: Cono tangente en el origen para A y f (A), del ejemplo 4.1.1.
Observacion 4.1.2. Notese que si W es un subespacio vectorial cerrado de X y w ∈ W
entonces Tan(W, w) = W. Si S es una superficie simple y s ∈ S entonces Tan(S, s) es el
plano tangente, Ts(S), en s ∈ S. Mas aun, definiendo
Tan(A) = (A ×X) ∩ (a,u) : u ∈ Tan(A, a) con A ⊂ X,
entonces, Tan(S) coincide con el fibrado tangente, T(S), de S. Vease Capıtulo 1, seccion
1.3.
4.1 Tangencia Conica 52
En los siguientes ejemplos se calcula el cono tangente en todo punto de los conjuntos
especificados y se ilustra en los puntos claves dicho tangente. Se toman estos conjuntos
ya que los dos primeros son los de interes al final de este trabajo y los otros dos porque
ilustran de manera sencilla y elegante la tangencia conica en sus singularidades.
4.1.1. Ejemplos
Ejemplo 4.1.2. Sea A = x0, x1, x2, · · · , xn ⊂ Z2 como se ilustra en la figura 4.2. El
cono tangente de A en xj para cualquier j = 0, 1, · · · , n es el vector nulo. En efecto,
supongase que existe un j ∈ 0, 1, · · · , n tal que hay un u 6= 0 en Tan(A, xj). Entonces
dado cualquier ǫ > 0 se tiene un xi tal que 0 ≤ ‖xi − xj‖ < ǫ. Luego necesariamente i = j,
por lo tanto, Tan(A, xj) = 0, para cualquier j = 0, 1, · · · , n.
Figura 4.2: Cono tangente para cada punto de un subconjunto finito de Z2
Ejemplo 4.1.3. Considerese ahora A como los segmentos xixi+1, para i ≥ 0, es decir,
A =∞⋃
i=1
xixi+1.
Es claro que Tan(A, x) = (xi+1 − xi)t : t ∈ R, para algun i = 0, 1, 2, · · · , siempre que
x ∈ xixi+1 sin los extremos. Ahora para cada xj,
Tan(A, xj) = (xj+1 − xj)t, (xj−1 − xj)tt≥0.
4.1 Tangencia Conica 53
Figura 4.3: Cono tangente de algunos vertices de una caminata aleatoria simple en Z2
Ejemplo 4.1.4. Sea γ : (−π, π) −→ R2 una curva, definida como
γ(t) =
(cos(t)− 1,−sen(t)) si t ∈ (−π, 0)
(1 − cos(t), sen(t)) si t ∈ [0, π)
Es claro que Tan(γ, γ(t)) = γ′(t)s : s ∈ R si t 6= 0. Ahora para t = 0 sea
u = u(θ) = (cos(θ), sen(θ)) con θ ∈ [0, 2π]. Se desea hallar b ∈ γ tal que ‖b‖ < ǫ
y ∥∥∥∥u
‖u‖ − b
‖b‖
∥∥∥∥ < ǫ para cualquier ǫ > 0.
Sea b ∈ γ, entonces hay un t ∈ (−π, π) tal que b = γ(t), donde ‖γ(t)‖ = 2|sen(t/2)|. Ası
b
‖b‖ =
(sen
(t
2
), cos
(t
2
)).
Llamando
v =u
‖u‖ − b
‖b‖ ,
se tiene que
‖v‖2 = 2
(1 − sen
(θ +
t
2
)).
Entonces ‖v‖ < ǫ para cualquier ǫ > 0 pequeno, es equivalente a pedir ‖v‖ −→ 0+, es
decir, (1 − sen
(θ +
t
2
))−→ 0+ ⇐⇒ θ −→ (4k + 1)π − t
2, con k ∈ Z.
Ademas, ‖b‖ < ǫ, ∀ǫ > 0, lo cual del mismo modo es equivalente a
‖b‖ −→ 0+ ⇐⇒ 2
∣∣∣∣sen
(t
2
)∣∣∣∣ −→ 0+ ⇐⇒ t −→ 0+.
4.1 Tangencia Conica 54
En consecuencia,
θ = lımt−→0+
θ(t) =4k + 1
2π.
Como θ ∈ (−π, π), entonces θ = π/2. Ası el cono tangente para t = 0 es
Tan(γ(0, 0)) = (0, 1)s : s ≥ 0.
Figura 4.4: Cono tangente de γ en cualquier punto.
Ejemplo 4.1.5. Considerese
A = (x, y) ∈ R2 : x = rcos(θ), y = rsen(θ) con r ∈ [0,√
2] ∧ θ ∈ [π/4, 3π/4].
Si x ∈ int(A) entonces Tan(A,x) = R2.
Si x = (x, y) ∈ Fr(A) (Frontera de A) entonces,
Tan(A, (x, y)) =
(x, y) : y − x ≥ 0 si (x, y) ∈ (0, 1) × (0, 1)
(x, y) : y + x ≥ 0 si (x, y) ∈ (−1, 0) × (0, 1)
(x, y) : y + cotan(θ)x ≤ 0 si (x, y) ∈ (−1, 1) × (1,√
2].
Ahora bien, si a = (0, 0). Sea u = u(α) = (cos(α), sen(α), entonces b ∈ A si y
solo si b = (rcos(θ), rsen(θ)), para algun (r, θ) ∈ [0,√
2] × [π/4, 3π/4]. Es claro que
‖b‖ = r (no depende de θ), llamando
v =u
‖u‖ − b
‖b‖ , con r 6= 0,
4.2 k-Tangencia Conica 55
ası ‖v‖2 = 2(1 − cos(α − θ)). Notese que ‖v‖ < ǫ para todo ǫ > 0, es equivalente
a ‖v‖ −→ 0+ cuando ǫ −→ 0+, es decir, cos(α − θ) −→ 1, cuando α − θ −→ 2kπ
con k ∈ Z. Teniendo en cuenta que α − θ ∈ [−3π/4, 7π/4], es directo que α −→ θ.
Concluyendose que
Tan(A, (0, 0)) = (x, y) ∈ R2 : |x| ≤ y.
Figura 4.5: Cono tangente de γ en (0, 0)
4.1.2. Diferenciabilidad Relativa
Definicion 4.1.2. SeaY un espacio vectorial normado y f : D ⊆ X −→ Y una funcion. Se
dice que f es relativamente diferenciable en a ∈ D, y L es el diferencial relativo de f en
a ∈ D, si y solo si, existe un entorno, Ua, de a en X y una funcion continua g : Ua −→ Ytal que g es diferenciable en a con
f | (S ∩ Ua) = g| (S ∩ Ua) y L = Dg(a)| Tan(A, a).
Siempre que f : D −→ Y, a ∈ D y f tiene diferencial relativo L en a ∈ D, se define
D f (a) = L.
4.2. k-Tangencia Conica
La tangencia conica ya vista se restringira a un numero mas pequeno de vectores,
usando la medida de Hausdorff de orden k y una funcion de densidad de una medida
4.2 k-Tangencia Conica 56
en determinado punto, que geometricamente generalmente son conjuntos ideales para el
estudio de diferenciabilidad (comun o aproximada, segun sea el caso) de determinados
subconjuntos de Rn.
Definicion 4.2.1. Sea µ una medida en un espacio metrico X y sea k tal que, 0 ≤ k < ∞.
Dado A ⊆ X y a ∈ A, es llamada la densidad superior (inferior) k-dimensional de µ en
a a la funcion definida como
Θk(A, µ, a) = lım sup
ǫ−→0+
µ(A ∩ b(a, ǫ))
αkǫk
(Θk(A, µ, a) = lım inf
ǫ−→0+
µ(A ∩ b(a, ǫ))
αkǫk
).
En caso de que las densidades superior e inferior sean iguales, entonces el valor comun
es la densidad k-dimensional de µ en a ∈ A, denotada por
Θk(A, µ, a).
Observacion 4.2.1. Notese que αkǫk es el volumen de una bola de radio ǫ en Rk. Por
tanto se puede decir que la densidad k-dimensional compara la medida, µ, de un “pedazo
pequeno” de un conjunto A con el volumen de una bola k-dimensional de diametro tan
“pequeno” como el “pedazo” de dicho conjunto A.
Ejemplo 4.2.1. Sea A = [a, b], µ = m la medida de Lebesgue en R y X = R2. Sea
0 < ǫ < |b − a|, entoncesm([a, b] ∩ b(a, ǫ))
αkǫk=
ǫ
αkǫk,
por tanto,
Θk([a, b], m, a) lım sup
ǫ−→0+
1
αkǫk−1=
0 si k = 012 si k = 1
∞ si k = 2
En este caso Θk([a, b], m, a) = Θk([a, b], m, a) = Θk([a, b], m, a).
Ejemplo 4.2.2. Sea A = [0, 1] × [0, 1], 0 < ǫ < 1 y µ = Hk la k-medida de Hausdorff.
Entonces,
Hk(A ∩ b(0, ǫ)) =
∞ si k = 0, 1
πǫ2
4 si k = 2.
Pero para calcular la densidad superior e inferior para los casos cuando k = 0, 1 se debe
proceder con el calculo de la k-medida de Hausdorff para dichos k. Sea ρ(bi) = ǫ2n . Ası,
infbi
n2
∑i=1
αk
( ǫ
2n
)k=
αkn2ǫk
2knk,
4.2 k-Tangencia Conica 57
por lo tanto,
Θk(A,Hk, 0) = lım sup
ǫ−→0+
lımn−→∞
αkn2ǫk
αk2knkǫk= lım
n−→∞
1
2knk−2=
∞ si k = 0, 114 si k = 2.
Ya definida la densidad superior, es usado este concepto para definir de inmediato la
k-Tangencia Conica como sigue.
Definicion 4.2.2. Sea A ⊂ Rn y a ∈ A. El cono tangente k-aproximado de A en a es el
conjunto
Tank(A, a) =⋂
Tan(B, a) : Θk(A − B,Hk, a) = 0
.
Cuando no hay un conjunto B tal que,
Θk(A − B,Hk, a) = 0, para k = 0, 1, · · · , n,
se dice que,
Tank(A, a) = Tan(A, a), para k = 0, 1, · · · , n.
Veanse los siguientes ejemplos donde se calcula dicha tangencia en el punto singular
del conjunto A especificado.
Ejemplo 4.2.3. Sea X = R2. Para A = (x, y) : y = |x|, x ∈ [−1, 1] el cono tangente en 0
es
Tan(A, 0) = (1, 0)t, (0, 1)tt≥0.
Ahora bien, considerese el siguiente conjunto
B = (x, y) : x2 + (y − 1)2 = 1, y ≤ 1.
Sea 0 < ǫ < 1, entonces
(A − B) ∩ b(0, ǫ) =
(x, y) : y < |x|, x ∈
(−√
2ǫ
2,
√2ǫ
2
)− 0
,
vease figura 4.6.
tomando ρi = ǫ2n , se tiene que
Hk((A − B) ∩ b(0, ǫ)) = lımn−→∞
αk
2n
∑i=1
( ǫ
2n
)k= lım
n−→∞
αkǫk
2k−1nk−1.
Por tanto,
Θk(A − B,Hk, 0) = lım
ǫ−→0+lım
n−→∞
αkǫk
2k−1nk−1
αkǫk= lım
n−→∞
1
2k−1nk−1=
∞ si k = 0
1 si k = 1
0 si k = 2.
4.2 k-Tangencia Conica 58
Figura 4.6: Graficos de A, B y la bola de centro 0 y radio ǫ, del ejemplo 4.3.2.
En consecuencia
Tan2(A, 0) =
Tan(S, a) : Θk(A − S,H2, a) = 0
= Tan(A, 0) ∩ Tan(B, 0) = 0.
Ejemplo 4.2.4. Sea A = (x, y) : y = |x|. Para cada m ∈ R, sea Bm = (x, y) : y = mx.
Entonces,
(A − Bm) ∩ b(0, ǫ) =
(x, y) : y = |x| < ǫ − 0 si m 6= ±1
(x, y) : y = −x, − ǫ < x < 0 si m = 1
(x, y) : y = x, 0 < x < ǫ si m = −1
Vease figura 4.7, donde se aprecia la familia de rectas Bmm∈R y el conjunto A. Por tanto,
Por tanto,
Θ0(A − Bm, 0) = lım supǫ−→0+
H0((A − Bm) ∩ b(0, ǫ))
=
lımǫ−→0+ lımn−→∞ ∑
2ni=1 α0
(ǫ
2n
)0si m 6= ±1
lımǫ−→0+ lımn−→∞ ∑2ni=1 α0
(ǫ
2n
)0si m = ±1
= ∞,
para cualquier m ∈ R.
4.2 k-Tangencia Conica 59
Figura 4.7: Graficos de A y la familia de rectas Bm.
Θ1(A − Bm, 0) = lım supǫ−→0+
H1((A − Bm) ∩ b(0, ǫ))
α1ǫ
=
lımǫ−→0+ lımn−→∞
1α1ǫ ∑
2ni=1 α1
(ǫ
2n
)si m 6= ±1
lımǫ−→0+ lımn−→∞1
α1ǫ ∑ni=1 α1
(ǫ
2n
)si m = ±1
=
1 si m 6= ±112 si m = ±1
Θ2(A − Bm, 0) = lım supǫ−→0+
H2((A − Bm) ∩ b(0, ǫ))
α2ǫ2
=
lımǫ−→0+ lımn−→∞
1α2ǫ2 ∑
2ni=1 α2
(ǫ
2n
)2si m 6= ±1
lımǫ−→0+ lımn−→∞1
α2ǫ2 ∑ni=1 α2
(ǫ
2n
)2si m = ±1
= 0,
para cualquier m ∈ R.
Puesto que Tan(Bm, 0) = (1, m)t : t ∈ R+ ∪ 0 donde Θ2(A − B,H2, 0) = 0, para
cualquier m ∈ R, se tiene que
Tan2(A, 0) =⋂Tan(Bm, 0) : Θ2(A − B,H2, 0) = 0 = 0.
Para el caso k = 0, 1 el cono tangente k-aproximado, Tank(A, 0), en 0 coincide con el cono
tangente, Tan(A, 0) en 0.
4.3 Teorema de la Tangencia Conica 60
Ejemplo 4.2.5. Para los ejemplos 4.1.4 y 4.1.5, los conos tangentes k-aproximados son:
Tank(A, 0) =
Tan(A, 0) si k = 0, 1
0 si k = 2
y
Tank(A, 0) = Tan(A, 0), k = 0, 1, 2,
respectivamente.
4.2.1. k-Diferenciabilidad Aproximada
Definicion 4.2.3. Sea f : D ⊆ Rn −→ Rm. Se dice que f es k-aproximadamente
diferenciable en a ∈ D si y solo si, existe un entorno, Ua, de a en Rn y una funcion
g : Ua −→ Rm tal que g es diferenciable en a y
Θk(x : f (x) 6= g(x),Hk, a) = 0,
para todo x ∈ D, casi seguramente con respecto a la medida de Hausdorff Hk (Hk − c.s.).
Esto implica que f es relativamente diferenciable para E = x : f (x) = g(x) en a, y
que el diferencial relativo de f en a esta determinado por la restriccion de Dg(a) a
Tan (x : f (x) = g(x), a) ⊇ Tank (x : f (x) = g(x), a)
Es llamado el k-diferencial aproximado de f en a, apkD f (a), al diferencial Dg(a)
restringido a Tank(x : f (x) = g(x), a), es decir,
apkD f (a) = Dg(a)| Tank(x : f (x) = g(x), a).
4.3. Teorema de la Tangencia Conica
En esta seccion se revisan, las definiciones y proposiciones, necesarias para enunciar el
Teorema principal de este capıtulo y fundamental para el capıtulo siguiente.
4.3.1. Funcion Lipschitz
Definicion 4.3.1. Una funcion f : X −→ Y, donde (X, dX) y (Y, dY) son espacios
metricos, es Lipschitz si y solo si existe un numero real positivo M (constante de
Lipschitz) tal que
dY( f (a), f (b)) ≤ MdX(a, b),
4.3 Teorema de la Tangencia Conica 61
siempre que a, b ∈ X.
La constante M es una constante de Lipschitz para f . Cada funcion Lipschitz tiene una
mınima constante de Lipschitz, la cual sera denotada
Lip( f ).
Definicion 4.3.2. Sean X,Y espacios metricos. Decimos que f : X −→ Y es localmente
Lipschitz si y solo si para cada punto x ∈ X existe un entorno Ux de x tal que f |Uxes
Lipschitz.
Proposicion 4.3.1. Si A es un subconjunto convexo de un espacio vectorial normado X, f es
Lipschitz con Lip( f ) ≤ M si y solo si
lımb−→a
dY( f (a), f (b))
‖a − b‖X ≤ M,
para a ∈ A.
La demostracion se puede consultar en [5], subseccion 2.2.7.
Corolario 4.3.1. Si f : X −→ Y es diferenciable, entonces es Lipschitz.
4.3.2. Conjuntos Rectificables
Definicion 4.3.3. Dado un entero k ∈ 0, 1, · · · , n fijo, se dice que un subconjunto E ∈ Rn es
1. k-rectificable si y solo si existe una funcion Lipschitz f tal que
f (A) = E,
para algun subconjunto acotado A de Rk;
2. (Hk, k)-rectificable si y solo si
E es Hk-medible,
Hk(E) < ∞
E =⋃∞
i=0 Wi con Hk(W0) = 0 tal que Wi es k-rectificable ∀i ∈ N,
3. Hk-rectificable si y solo si E ∩ K es (Hk, k)-rectificable para cualquier conjunto compacto
K ∈ K(X).
4.3 Teorema de la Tangencia Conica 62
Ejemplo 4.3.1.
Usando el corolario 4.3.1 y la proposicion 4.3.1 se puede afirmar que:
(i) Las superficies son conjuntos Hk-rectificable.
(ii) El Grafo de una curva regular es Hk-rectificable.
(iii) El conjunto de puntos que describen una trayectoria fractal (Como en la figura 2.5)
es un conjunto Hk-rectificable.
Para finalizar se enuncia a continuacion el siguiente teorema, el cual sera utilizado en
el siguiente capıtulo. La demostracion de dicho teorema esta mas alla de los objetivos de
la presente tesis, por esa razon y para no descuidar dicho objetivo, se dejara referido al
lector.
Teorema 4.3.1. Si E es un subconjunto Hk-medible y (Hk, k)-rectificable de Rn, entonces,
Θk(E,Hk, e) = 1, ∀e ∈ E,Hk − c.s.
y Tank(E, e) es un subespacio vectorial de dimension k de Rn.
Ademas, si f : E −→ Rm es Lipschitz, entonces f tiene en todo punto e ∈ E, Hk − c.s., un
k-diferencial aproximado
apkD f (e) : Tank(E, e) −→ Rm.
La demostracion esta hecha en [5], Teorema 3.2.19.
CAPITULO 5
Fibrados Aleatorios
De manera similar a la formulacion de procesos puntuales se formulan procesos de
objetos mas complejos, que en este trabajo sera limitado a conjuntos de lıneas localmente
suaves en un espacio X metrico segundo numerable y localmente euclıdeo. Estas lıneas,
por el Teorema de la Tangencia Conica tienen recta tangente en casi todos sus puntos y por
tanto se puede hablar de un fibrado ξ como en el capıtulo 1, donde el espacio Base sera el
conjunto de lıneas aleatorias. Evidentemente para cada ω ∈ Ω se tiene un conjunto de
lıneas enX y de este modo se genera un espacio fibrado para dicho conjunto. Ası se tiene
de esta manera un fibrado aleatorio. Para fines practicos se toma X = Rn y finalmente se
muestran ejemplos particulares de fibrados aleatorios en R2.
5.1. Procesos de Partıculas
Los procesos puntuales en Rn ahora se van a generalizar a procesos de ciertos ele-
mentos geometricos como “trozos” de curvas y superficies de area finita, cuerpos con-
vexos, etc. Estos conjuntos son compactos de Rn los cuales seran llamados “partıculas”
de P(Rn). Es decir, en general, son llamadas “partıculas” a los subconjuntos compactos
no vacıos de Rn.
Sea K′ el espacio de todos los subconjuntos compactos no vacıos de Rn y
dH : K′ ×K′ −→ [0, ∞),
una funcion definida como
dH(K1, K2) = max
supx∈K1
dist(x, K2), supy∈K2
dist(y, K1)
,
63
5.1 Procesos de Partıculas 64
donde dist(x, K) = infz∈K ‖x − z‖ es la distancia de un punto x ∈ Rn al conjunto K ⊂ Rn.
Esta funcion dH es una metrica en K′, llamada la metrica de Hausdorff.
Con esta metrica, dH, se enuncia la siguiente proposicion.
Proposicion 5.1.1. (K′, dH) es un espacio Polaco localmente compacto tal que cada conjunto
acotado es compacto.
Ver [2], seccion 2.8.
Notese que bajo un proceso de partıculas se tiene comprendido un proceso puntual Φ
en K′. Su medida de intensidad
Λ = EΦ,
es una medida de Borel en K′ (una medida en B(K′)). Se asume que esta medida es finita
en el sentido,
Λ(KB) < ∞ , ∀B ∈ K′, (5.1)
donde KB = K ∈ K′ : K ∩ B 6= 0.
Figura 5.1: Condicion 5.1 para un Proceso Puntual en K′.
Notacion 1. A veces, por comodidad, se escribira “K ∈ Φ” en vez de “Φ(K) > 0”.
Definicion 5.1.1. Sea Φ un proceso puntual en K′. Se define el conjunto union del
proceso Φ al conjunto
Ξ =⋃
K∈Φ
K. (5.2)
5.1 Procesos de Partıculas 65
Observe que K ∈ Φ significa que K es una partıcula atomica o punto atomico de Φ en
K′.
La condicion (5.1) asegura que esta union (5.2) es localmente finita. Por lo tanto, Ξ
es cerrado y verifica necesariamente propiedades de medibilidad, obteniendose ası el
siguiente
Teorema 5.1.1. El conjunto union de un proceso puntual Φ en K′ que satisface (5.1) es un
conjunto cerrado aleatorio.
Vease [2], Teorema 2.39 seccion 2.8.
En dos siguientes ejemplos se ilustra como un proceso de partıculas (en este caso un
proceso de circunferencias) en R2 puede ser visto como un proceso puntual en el mismo
espacio R2 o en R3.
Ejemplo 5.1.1. un proceso de circunferencias aleatorias
S = Sn(Cn, Rn)∞n=1 ⊆ R2,
donde
Cn =n
∑i=0
Xi
es el centro de la circunferencia Sn y Xnn∈N es una cadena de Markov con espacio de
estados E = ±(1, 0),±(0, 1). Ademas, Rn es el radio de la circunferencia Sn donde
Rn∞n=1 es un proceso puntual uniforme en [0, 2].
En este caso se tiene una especie de “caminata aleatoria de circunferencias”, donde
los centros de las circunferencias es una caminata aleatoria Markovniana con pasos
aleatorios: Norte, Sur, Este y Oeste, y radio uniforme [0, 2], como se muestra en la figura
5.2.
Para simplificar el proceso, para cada K ∈ K′ sea C(K) ∈ Rn la referencia puntual de
un conjunto compacto K. Se puede elegir, por ejemplo, C(K) como el punto en K cuya
distancia es mınima con el orıgen; de hecho, la funcion C : K′ −→ Rn puede ser elegida
arbitrariamente con las propiedades de medibilidad y tal que
C(K + z) = C(K) + z, K ∈ K′, z ∈ Rn.
Ejemplo 5.1.2. Siguiendo con el proceso del ejemplo 5.1.1. Eligiendo la referencia puntual
C : K′ −→ R2
5.1 Procesos de Partıculas 66
−10 −8 −6 −4 −2 0 2−2
−1
0
1
2
3
4
5
6
7
8
X
Y
Proceso de Circunferencias con centro Markov y radio con distribución uniformeme en [0,2]
Figura 5.2: ” Caminata Aleatoria de Circunferencias” enR2
como
C(Sn) = Cn, (5.3)
se tiene una caminata aleatoria Markovniana con espacio de estados para los pasos
E = ±(1, 0),±(0, 1), como se ilustra en la figura 5.3.
La desventaja de la referencia puntual anterior es que no describe el numero total de
partıculas(circunferencias) en la region mostrada y menos aun el numero de partıculas
por punto de referencia. Para resolver este problema se toma en cuenta tanto el centro
como el radio para cada circunferencia, es decir, una referencia puntual
C : K′ −→ R3
definida como
C(Sn) = (Cn, Rn),
que es evidentemente a una biyeccion entre el conjunto de todas las partıculas descritas
por Sn y Z2 × [0, 2], como se ilustra en la figura 5.4.
Vease figura 5.5, donde se considera la evolucion en el tiempo con la poligonal. Notese
que esta referencia da un modelo de como puede observarse que un proceso de partıculas,
en este caso circunferencias aleatorias, en R2 es un proceso puntual en Z2 × [0, 2] que
puede hacer semejanza a un proceso puntual en el espacio K′(R2).
5.2 Procesos Fibrados y Sistemas de superficies 67
−8 −7 −6 −5 −4 −3 −2 −1 0 1−1
0
1
2
3
4
5
6
7
X
Proceso Markov vs. Radio con distribución uniformeme en [0,2]
Y
Figura 5.3: Proceso Aleatorio descrito por la referencia puntual 5.3.
5.2. Procesos Fibrados y Sistemas de superficies
En esta seccion se considera un conjunto cerrado aleatorio k-dimensional Ξ en Rn,
donde k < n (generalmente k = 1 o k = n − 1).
Para formalizar el sentido de un conjunto cerrado aleatorio k-dimensional, se usa el
concepto general debido a Zahle [12] que introdujo los conjuntos Hk-aleatorio como los
conjuntos cerrados aleatorios en Rn el cual son Hk-rectificables. Es mostrado en [12] que
el espacio
F k =
F ∈ F (Rn) : F es Hk-rectificable
es un subsistema B(F (Rn))-medible de F (Rn).
Un conjunto Hk- aleatorio Ξ es a menudo construido como el conjunto union de
un proceso de “partıculas” donde las partıculas son otra vez conjuntos cerrados Hk-
rectificables. Siguiendo [12] y [2], se define un Hk-proceso como un proceso puntual
Φ en el espacio de estados F k(de conjuntos cerrados Hk-rectificables) con la σ-algebra
inducida por la σ-algebra de Borel B(F (Rn)) en el espacio de conjuntos cerrados F (Rn).
Este enfoque es ligeramente mas general que en la seccion anterior donde solo las
partıculas compactas son permitidas. Analogamente a la condicion (5.1) se tiene que
asumir que solo un numero finito de partıculas tocan la region acotada (esta condicion es
necesaria en el orden que el conjunto union es cerrado). Esta propiedad sera garantizada
5.2 Procesos Fibrados y Sistemas de superficies 68
−10
−5
0
5
−20
24
68
0
0.2
0.4
0.6
0.8
1R
adio
Proceso de Circunferencias con centro Markov y radio con distribución uniformeme en [0,2]
YX
Figura 5.4: Referencia Puntual C.
para casi todas las realizaciones por la hipotesisE (card K ∈ Φ : K ∩ W 6= ∅) < ∞
para cualquier conjunto acotado W ∈ B(Rn).
Entonces, sin ninguna dificultad se tiene que el conjunto union
Ξ =⋃
K∈Φ
K
es un conjunto Hk-aleatorio.
Con un conjunto Hk aleatorio Ξ se puede siempre considerar la medida aleatoria Ψ
inducida en Rn
Ψ(ω) = Hk∣∣∣ Ξ(ω)(·) = Hk(Ξ(ω) ∩ ·)
la restriccion de la medida de Hausdorff k-dimensional a Ξ.
Por el Teorema 4.3.1, para un conjunto Hk-aleatorio Ξ, el subespacio tangente k-
dimensional Tank(Ξ, x) existe para todo x ∈ Ξ, Hk − c.s. Para dimensiones particulares,
se pueden definir los siguientes terminos.
5.2 Procesos Fibrados y Sistemas de superficies 69
−8
−6
−4
−2
0
2
−20
24
68
0
0.2
0.4
0.6
0.8
1
X
Proceso Markov vs. Radio con distribución uniformeme en [0,2]
Y
Rad
io
Figura 5.5: Poligonal de la Referencia Puntual C.
Definicion 5.2.1. (Provisional). EnRn, un conjunto H1−aleatorio sera llamado sistema fi-
brado(aleatorio) y un conjunto Hn−1−aleatorio como sistema de superficies(aleatorias).
Una partıcula en un sistema fibrado es una lınea de longitud finita que por el Teorema
4.3.1 es localmente suave. Entonces si se denota l como dicha lınea, entonces el Teorema
4.3.1 garantiza que l se puede escribir como una union de curvas suaves en Rn con la
union de los puntos donde Tan1(l, x) no es un subespacio vectorial de dimension 1, es
decir,
l =⊔
i∈Nγi ∪⊔
i∈Npi : pi ∈ P,
donde P = x ∈ l : Tan1(l, x) no es subespacio vectoria. Ası se deduce que una partıcula
en un sistema fibrado es union de partıculas (curvas) diferenciables (excepto en los
extremos) del sistema fibrado, y con esto se llega a la siguiente util definicion.
Definicion 5.2.2. Una fibra en Rn es una curva γ en Rn de longitud finita, el cual es
imagen de la aplicacion
γ(t) =n
∑i=1
eiγi(t),
5.2 Procesos Fibrados y Sistemas de superficies 70
donde eii=1,··· ,n es la base canonica en Rn, tal que:
(i) γ : [0, 1] −→ Rn es continuamente diferenciable,
(ii) γ′(t) 6=~0, para todo t ∈ (0, 1).
Cuando una curva cumple (i) y (ii) se dice que la curva es suficientemente suave.
Observacion 5.2.1. Notese que la condicion (ii) de la definicion 5.2.2 garantiza que la
fibra no se intersecte con ella misma (a menos que sea en sus extremos). Una curva
continuamente diferenciable α : [0, 1] −→ Rn, que se intersecta con ella misma pero
no en sus extremos se puede escribir como la union de fibras. Por ejemplo, sea una curva
tal que esta se intersecta con ella misma solo una vez, de tal manera que no sea por sus
extremos, entonces esta es union de tres fibras como se muestra en la figura 5.6.
Figura 5.6: Descomposicion de una curva cualquiera en fibras.
Definicion 5.2.3. Sea γ una fibra en Rn. Se define la medida de longitud de γ por region
boreliana B a la medida
lγ : B(Rn) −→ [0, ∞),
5.2 Procesos Fibrados y Sistemas de superficies 71
tal que,
lγ(B) = H1(γ ∩ B) =∫ 1
01B(γ(t))‖γ′(t)‖dt,
para cualquier boreliano B ⊂ Rn.
Observe que la medida lγ depende solo de la curva γ([0, 1]) y no de la representacion
precisa de γ (como conjunto). La definicion de sistema fibrado es una simple extension
de la definicion de fibra.
Definicion 5.2.4. Un sistema fibrado Ξ es un conjunto cerrado (aleatorio) de Rn el cual
puede ser representado como una union numerable de fibras γi,
Ξ =⋃
γi∈Φ
γi, (5.1)
con la propiedad de que cualquier conjunto compacto es intersectado por solo un numero
finito de fibras (condicion (5.1) de la seccion 5.1), y tal que fibras distintas solo se
intersectan a lo sumo en sus extremos, es decir,
γi((0, 1)) ∩ γj((0, 1)) = ∅, si i 6= j. (5.2)
La medida aleatoria de longitud correspondiente al sistema fibrado Ξ es entonces
definida en terminos de las medidas lγipor
Ψ(B) = ∑γi∈Φ
lγi(B),
para un conjunto de Borel B ⊂ Rn.
Observacion 5.2.2. Notese que la condicion (5.2), de esta seccion, siempre esta garanti-
zada segun la observacion (5.2.1). Ademas, la representacion de Ξ como una union de
fibras (5.1) no es unica.
Es claro que un punto de interseccion de fibras no puede ser un punto de acumulacion
del sistema fibrado, y esto viene nuevamente dado por la condicion de que el sistema
fibrado es localmente finito.
Definicion 5.2.5. Un proceso fibrado Φ es una variable aleatoria (funcion medible),
Φ : (Ω,A,P) −→ (F 1,B(F ) ∩ F 1),
donde F 1 es la familia de todos los sistemas fibrados en Rn.
5.3 Modelos Geometricos 72
La distribucion del proceso fibrado es la medidaPΦ = P Φ−1,
generada en (F 1,B(F ) ∩ F 1) por Φ.
La medida de intensidad, Λ, de un proceso fibrado esta dada por
Λ(B) = E(Ψ(B)) = E(
∑γ∈Φ
H1(γ ∩ B)
),
para un conjunto de Borel B ⊂ Rn.
5.3. Modelos Geometricos
A continuacion se presenta una serie de sistemas fibrados sencillos ilustrando un
evento y finalizando con la construccion del fibrado aleatorio de algunos de estos.
5.3.1. Procesos de lıneas (por el orıgen) finitas en el plano
Una lınea direccionada es un segmento de recta de longitud finita con alguna direccion
en [0, 2π). Un proceso de lıneas direccionadas, es tal que, cada lınea tiene una direccion
azarosa α ∈ [0, 2π) y una longitud tambien al azar x ∈ R+. El proceso puede ser descrito
por el conjunto aleatorio,
ΞL =⋃
n∈Nγ(αn,xn).
Note que a cada lınea (fibra) le corresponde un punto z ∈ S1 ×R+. Es decir, se tiene
una funcion inyectiva,
F : ΞL −→ S1 ×R+
γ(αn,xn) −→ (cos(αn), sen(αn), xn).
Por tanto, un evento del proceso de lıneas direccionadas en el plano es un evento
del proceso puntual inducido por F en S1 × R+. Esto tambien puede ser descrito por
el conjunto de puntos generado por un proceso de rectas aleatorias en R3, por el orıgen,
que intersectan al semicilindro S1 ×R+.
Observe que enR2 el grafo de las lıneas aleatorias por el orıgen con la misma direccion
no se pueden distinguir, solo se podra distinguir la lınea de mayor longitud, mientras que
en S1 ×R+ si se puede notar tal diferencia. Esta es una de las ventajas de ver el proceso
de lıneas direccionadas como un proceso puntual en S1 ×R+.
5.3 Modelos Geometricos 73
−1 −0.5 0 0.5 1−1
−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
1
X
Y
Proceso de Líneas (por el orígen) en el plano.
Figura 5.7: Procesos de lıneas (por el orıgen) finitas en el plano con longitud uniforme en [0, 2] y
angulo uniforme en [0, 2π].
5.3.2. Proceso de lıneas finitas en el plano
Sea ΞP un proceso puntual en R2, es decir,
ΞP =⋃
n∈Nxn.
Un proceso de lıneas en R2 es un proceso,
Ξ =⋃
n∈Nγn + xn,
donde γnn∈N es un proceso como el descrito en la subseccion 5.3.1.
Ejemplo 5.3.1. El siguiente es un evento de un proceso de lıneas finitas en R2, donde
ΞP = xnn∈Nes una caminata aleatoria con pasos markovnianos en E = ±(1, 0),±(0, 1) y
ΞL = γnn∈Ncomo en la subsection 5.3.1.
5.3 Modelos Geometricos 74
−1−0.5
00.5
1 −1
−0.5
0
0.5
1
0
0.5
1
Rad
io
Proceso de Líneas (por el orígen) vista como un proceso puntual en el Semicilindro
X
Y
Figura 5.8: Procesos descrito en la Figura en el cilindro.
5.3.3. Fibrado de un Sistema Fibrado en R2
Sea Ξ =⋃
n∈Nγn un sistema fibrado (orientado positivamente) en R2. Por
definicion, este es un conjunto H1−aleatorio. Entonces Ξ es un conjunto H1−medible y
H1−rectificable, por el Teorema 4.3.1, Tan(Ξ, x) es un subespacio vectorial de dimension
1, ∀x ∈ Ξ, H1 − c.s. Dado ω ∈ Ω, sea U(ω) un abierto en R2 tal que
H1(Ξ(w) ∩ U(ω)) > 0.
Ası se induce en Ξ una topologıa, la topologıa relativa en Ξ,
TΞ = Ξ ∩ U : U ∈ TR2.
Entonces para todo x ∈ Ξ ∩ U : H1(Ξ ∩ U) > 0, H1 − c.s, existe una recta tangente:
ln,(x)(t) = γ′n(x)t + x,
para algun γn ∈ Ξ.
Notese que,
Ξ′ =⋃
n∈Nln,(x) : x ∈ Ξ,
5.3 Modelos Geometricos 75
−14 −12 −10 −8 −6 −4 −2 0 2−6
−5
−4
−3
−2
−1
0
1
2
3
X
Y
Proceso de Líneas en el plano.
Figura 5.9: Proceso de Lıneas del ejemplo 5.3.1.
es un sistema fibrado en R2, (mas aun, es un sistema de lıneas direccionadas en R2),
donde estas lıneas azarosas estan determinadas por una direccion en [0, 2π) y un punto
de apoyo x ∈ Ξ. Siguiendo 1.3.1 del capıtulo 1 se tiene que el espacio fibrado tangente a
U ∩ Ξ es
Tan(U ∩ Ξ) =⊔p : p ∈ U ∩ Ξ, H1(U ∩ Ξ) > 0 ×R,
donde la fibra es F = R, base B = U ∩ Ξ y proyeccion
π : Tan(Ξ ∩ U) −→ Ξ ∩ U
π(x, t) = x,
para todo punto x ∈ U ∩ Ξ, H1 − c.s. En efecto, sea (x, t) ∈ Tan(Ξ ∩ U), basta elegir
Ξ ∩ U ∈ TΞ que contiene a x y el homeomorfısmo,
α : (Ξ ∩ U) ×R −→ π−1(Ξ ∩ U),
definido como:
α(x, t) = (x, mt),
5.3 Modelos Geometricos 76
donde m = yn(t)xn(t)
, para algun γn = (xn, yn) ∈ Ξ ∩ U, ∀x ∈ Ξ ∩ U, H1 − c.s.
Sea Γ = Ξ∩Unn∈N un cubrimiento abierto de Ξ. Entonces por el Teorema 1.2.1 existe
un fibrado con espacio fibrado tangente
Tan(Ξ) =
⋃n∈N(Ξ ∩ Un) ×R
∼=
⊔x∈Ξ
Tan(Ξ,x) : Tan(Ξ ∩ U) es un subespacio lineal de R2,
con fibra F = R y base B = Ξ.
Observacion 5.3.1. Para cada ω ∈ Ω, se tiene un conjunto Ξ(ω) de fibras (un evento de
un proceso fibrado)y un fibrado ξ = ξ(ω) = (Tan(Ξ(ω)), π, Ξ(ω),R). Por esta razon
se dice que el fibrado ξ es aleatorio. La fibra sigue siento F = R puesto que es siempre
homeomorfa a cualquier recta tangente de cualquier fibra aleatoria γn(ω), con ω ∈ Ω.
5.3.4. Fibrado de Procesos Puntuales
En un proceso puntual, los eventos pueden ser descritos por sus trayectorias
poligonales. Es claro que estas trayectorias poligonales son fibras (lıneas de longitud
finita), por tanto se puede describir un proceso puntual como un proceso o sistema
fibrado Ξ. Vease figura 5.10.
Figura 5.10: Proceso puntual visto como un proceso fibrado.
Puesto que los procesos de lıneas son procesos fibrados se tiene, como se ve en la
subseccion anterior, la existencia de un fibrado
Tan(Ξ) =⊔
n∈NTan(Ξ,x) : x ∈ xn−1xn − xn−1, xn,
5.3 Modelos Geometricos 77
donde xy denota el segmento de lınea de x a y.
La idea es construir un modelo que resuelva el problema en los puntos x, donde
Tan(Ξ,x) no es lineal. El modelo consiste en asignar a cada punto xn la recta tangente
aproximada
Tan(Ξ, xn) = x : x = (xn+1 − xn)t + xnt∈R.
Ejemplo 5.3.2. Fibrado aleatorio de una caminata aleatoria en Z2 y pasos Markovnianos
E = ±(0, 1),±(1, 0).
Sea X = Xnn≥0 una cadena de Markov con espacio de estados E = ±(0, 1),±(1, 0).
Se define a partir de esta cadena una caminata aleatoria
Yn =n
∑k=0
Xk.
Ası se induce el siguiente sistema fibrado
Ξ =∞⋃
n=1
γn,
donde γn(t) = (Yn − Yn−1)t + Yn−1 = Xnt + Yn−1, con t ∈ [0, 1]. Ası el cono tangente en
Yn−1 es
Tan(Ξ, Yn−1) = Xntt≥0,
donde Xn ∈ E . Es decir, dado ω ∈ Ω hay una trayectoria de la caminata aleatoria, donde
cada punto Yn(ω) ∈ Z2 puede tener asociado solo una semirecta con una direccion en E .
Obteniendose un sistema fibrado tangente,
Ξ′ =∞⋃
n=1
Tan(Ξ, Yn−1),
donde
Tan(Ξ, Yn−1) = Xntt≥0 y Xn ∈ E .
El modelo es simplemente cambiar la sutileza de t ≥ 0 por t ∈ R para hacerlo un
subespacio lineal de R2.
Sea U un abierto de R2. Si la caminata aleatoria es C = Ynn∈N entonces el fibrado
aleatorio de C ∩ U es
Tan(C ∩ U) =⊔
Yn∈C∩U
Tan∗(C ∩ U, Yn),
donde Tan∗(C ∩ U) = Xntt∈R, con base C ∩ U y fibra R.
5.3 Modelos Geometricos 78
Sea Γ = Un ∩ Cn∈N un cubrimiento abierto de C. Por el Teorema 1.2.1 el fibrado
tangente para C es
Tan(C) =
⊔n∈N C ∩ Un ×R
∼=
⊔
n∈N Tan∗(C, Yn),
con fibra F = R y base B = C.
Observacion 5.3.2. Los eventos o trayectorias de la caminata aleatoria en Z pueden ser
descritas como la proyeccion en Z2 de la interseccion de Z2 ×R ⊂ R3 con un sistema de
superficies en R3.
Ademas, notese que un sistema de fibrado enR2 puede ser descrito como la proyeccion
en R2 de la interseccion de un sistema de superficies en R3 con un sistema de planos
aleatorios, es decir, un evento de un sistema fibrado en R2 puede ser interpretado como
la proyeccion en R2 del corte plano de un sistema de superficies.
BIBLIOGRAFIA
[1] BADDELEY, A. et al. Stochastic Geometry. Lectures given at the C.I.M.E., summer school
held in Martina Franca, Italy, September 13-18, 2004. Lecture Notes in Mathematics.
Vol. 1892. Springer-Verlag.(2007).
[2] BENES, V. & RATAJ, J. Stochastic Geometry: Selected Topics.Kluwer Academic Publish-
ers. Springer Science. (2004).
[3] BETZ, C. Introduccion a la Teoria de la Medida e Integracion, Caracas. (19)
[4] DUDLEY, R.M. Real Analysis and Probability, Wadsworth & Brooks/Cole, Mathemat-
ics Series. Pacific Grove, California. (1989).
[5] FEDERER, H. Geometric Measure Theory, Springer-Verjag. (1996).
[6] FERRARI, P. & GALVES, A. Construction of Stochastic Processes, Coupling and
Regeneration, XIII Escuela Venezolanda de Matematicas, Asociacion Matematica
Venezolana, Universidad de los Andes, Facultad de Ciencias, Merida. (2000).
[7] GUARDIA, T. Geometrıa Diferencial, Universidad Central de Venezuela, Facultad de
Ciencias, Escuela de Matematicas, Caracas. (2007).
[8] IRIBARREN, I. Introduccion a la Teorıa de la Medida, Universidad Central de
Venezuela, Consejo de Desarrollo Cientıfico y Humanıstico, Caracas. (2006).
[9] SHARPE, C. Differential Geometry. Graduate Texts in Mathematics Vol. 166. Springer-
Verlag. New York-Heidelberg-Berlın (1996).
[10] STEENROD, N. The topology of fiber bundles. Princeton University Press. Princeton-
New Jersey. (1951).
79
BIBLIOGRAFIA 80
[11] STOYAN, D., KENDALL, W. & MECKE, J. Stochastic Geometry and its Apllications. Sec-
ond Edition. John Wiley & Sons. Chichester-New York-Brisbane-Toronto-Singapore
(1995).
[12] ZAHLE, M. Random processes of Hausdorff rectificable closed sets. Math. Nachrichten,
108:49-72. (1982).
[13] ROYDEN, H.L. Real Analysis Macmillan Publishihg CO., INC. (1968).
[14] DUGUNDJI, J. Topology Allyn and Bacon, INC. Boston-Londres-Sydney-Toronto
(1966).
[15] LIPSCHUTZ, S. Topologıa General McGraw-Hill CO. (1965).