APROXIMACION DE PROCESOS DE DIFUSION148.206.53.84/tesiuami/reportesok/UAMR0823.pdf · Entonces, la...

134
Vol. I1 APROXIMACION DE PROCESOS DE DIFUSION Colectivo de Autores* No. 2 *Bazúa Rueda , Luis Fe1 ipe 3 133 3 Hernández Castaños , Diego Bri ci o Torres Cházaro, Adolfo Velasco Hernández, Jorge X. Villa Arce, Enrique 2,5 194 Este trabajo fue parcialmente apoyado por DGICSA.SEP. a través del Convenio C88-01-0084 que tiene esta Institución con el área de Análisis Aplicado de la UAM- I (1) Maestría en Estadística e Investigación de Operaciones. Colegio de Ciencias y Humanidades-IIMAS, UNAM. (2) Maestría en Matemáticas, UAM-Iztapalapa. (3) Departamento de Matemáticas, UAM-Iztapalapa. (4) Escuela de Ciencias Fisicomatemáticas Universidad Autónoma de Sinaloa. (5) Departamento El Hqmbre y su Ambiente, UAM-Xochimilco.

Transcript of APROXIMACION DE PROCESOS DE DIFUSION148.206.53.84/tesiuami/reportesok/UAMR0823.pdf · Entonces, la...

Vol. I 1

APROXIMACION DE PROCESOS

DE DIFUSION

Colectivo de Autores*

No. 2

*Bazúa Rueda , Luis Fe1 ipe

3

133 3

Hernández Castaños , Di ego Bri ci o

Torres Cházaro, Adolfo

Velasco Hernández, Jorge X. Villa Arce, Enrique

2,5

194 Este trabajo fue parcialmente apoyado por DGICSA.SEP. a través del Convenio

C88-01-0084 que tiene esta Institución

con el área de Análisis Aplicado de la

UAM- I

( 1 ) Maestría en Estadística e Investigación de Operaciones. Colegio de Ciencias y Humanidades-IIMAS, UNAM.

(2) Maestría en Matemáticas, UAM-Iztapalapa.

(3) Departamento de Matemáticas, UAM-Iztapalapa.

(4) Escuela de Ciencias Fisicomatemáticas Universidad Autónoma de Sinaloa.

(5) Departamento El Hqmbre y su Ambiente, UAM-Xochimilco.

INTRODUCCION

I . PROCESOS ESTOCASTICOS Y ECUACIONES DIFERENCIALES 1.1 So luc ión P robab i l í s t i ca de Ecuaciones Diferenciales

1.2 E l movimiento browniano

1.3 Difusiones en una dimensión 1.4 Soluciones de problemas de Ecuaciones Diferenciales Parciales

I I . SOLUCION NUMERICA DE ECUACIONES DIFERENCIALES ESTOCASTICAS 2.1 Introducción 2.2 Efecto de l a d i s c re t i zac i ón del tiempo 2.3 Efecto de l a aproximación del MB 2,4 Resultados computacionales

I I I . GENERACION 3E i'lOVIMIENT0 BROWNIAN0

3.1 Introducción 3.2 Aproximación mediante caminatas aleatori as 3.3 Simulación de !dB por caminatas aleatorias

3.4 Aproximaciones mediante PTU.

3.5 Resul tados computacional es

I V . APROXIMACION MEDIANTE CMTC

4.1 Introducción 4.2 Método de D iscret izac ión

4,3 Convergencia del Método

4.4 Resultados Computacionales

V . INTERPRETACION BIOLOGICA DE LOS RESULTADOS

APENDICE A Programas para generar MB APENDICE B Programas para generar difusiones

BIBLIOGRAFIA

I NTRODUCC I ON

En es te t rabajo presentamos algunos métodos para la construcción de aproximaciones a procesos de difusión, ilustrándolos con resultados computacionales. Aun cuando contar con ta les técnicas computacionales resul ta de uti 1 idad en una gran variedad de campos , hemos motivado l a - discusión en el capítulo 1 en términos de l a necesidad de evaluar solu- ciones de problemas de valores a la f ron tera (PVF) y problemas de valo- res in ic ia les y a la f rontera (PVIF) asociados a operadores diferencia- les de segundo orden. A grandes rasgos, l a organización del trabajo es 1 a sigui ente:

Capítulo 1. Se comienza por dar algunos ejemplos que i lus t ran l a representación estocásti ca de soluciones de los problemas antes menciona - dos, todo en forma casuística y con hnimo exploratorio. S in excepción, los problemas abordados se refieren al operados Laplaciano, en dimensio- nes 1 y 2. Enseguida , se da una breve introducción informal al movimien - to browniano, tanto desde e l punto de v i s t a f í s i c o como en referencia al modelo de Wiener. Finalmente, se presentan los procesos de difusión en forma t a l que su conexión con los operadores diferenciales de segundo - orden resulta evidente, siguiendo el enfoque del "problema de la martina gala" de Stroock y Varadhan (1979). En e s t a última sección se l lega a - 1 a representación de los procesos de d i fusión como soluciones de ecuacio - nes diferenciales estocásticas ( E D E ) , haciendo evidente su carácter marko - ffiano, del cual se deducen las representaciones estocásticas antes men - ci onadas .

-

Capítulo 2. Se parte de la representación de las difusiones como soluciones de EDE's con e l f i n de diseñar algoritmos computacionales que produzcan buenas aproximaciones de las t rayector ias de dichos procesos. Con tal propósito se retoman algunos resultados de Rllmel i n (1982), traba - j o en e l que se investiga el efecto de la discret ización del tiempo en - 1 a EDE medi ante la fami 1 i a de métodos de Runge Kutta, haciendo ver l a - necesidad de introducir un término de corrección apropiado para lograr -

una buena convergencia. Dicho trabajo supone l a d i s pon i b i l i d ad de tra-

yectorias del proceso de Wiener, l o cual en l a p rác t i ca r e su l t a menos que rea l i s t a , ya que só lo pueden generarse aproximaciones más o menos suaves

de dichas trayectorias El efecto de ta l subst i tuc ión se toma 1 uego en

cuenta, s iguiendo los trabajos de Janssen (1984). Finalmente, se presen - t an l o s r e su l t ado s de la implantación computacional de las técnicas ante - r i o re s .

Capítulo 3. Queda establecida en el capítulo 2 l a necesidad de

contar con buenas aproximaciones de t rayector ias del proceso de Wiener

(MB) para generar las de procesos de d i fu s ión . En este capítulo se ob- tiene un paquete computacional para la generación de trayector ias del - MB, basándose en dos ideas teór icas ya establec idas: la pos ib i l idad de

aproximar el MB mediante a) caminatas aleatorias LKnight (1981)], b) pro - ceses de transporte uniforme (PTU) [Griego e t a l (1971) I , [Gorostiza y

Griego (1980) l . Por ambos caminos se obtiene convergencia uniforme en

interva los compactos, con probabilidad 1, l o cual es más que su f i c iente para garant izar la bondad de l a aproximación en lo s cá lcu los que se moti - van en el capítulo 1. Se incluyen resultados de l a simulación, que i n - cluyen una comparación de ambos métodos para generar aproximaciones del

MB.

Capítulo 4. En este ú l t imo capí tu lo se examina una ruta alterna- tiva para aproximar trayectorias de d i fus iones, misma que genera aproxi- maciones discretas que convergen débilmente a la d ifus ión; esta conver-

genc ia es jus to la que se necesita para garanti zar la bondad de l a s a p r g ximaciones a l a s so luc iones e s tocás t i cas de l o s problemas que s i r ven de motivación en el capítulo 1. El método se basa en la d i sc ret i zac ión de l

espacio mediante una técnica dada en [Di Masi/Runggaldier (1980)1, l a cual da lugar a una cadena de Markoff a tiempo continuo (CMTC). A su - vez, esta técnica s igue.de las consideradas por [Kushner (1977)], basa - das en l a s ub s t i t uc i ón de l a d i f u s i ó n p o r una cadena de Markoff a tiempo discreto. En el capítulo 10 de [Hernández (1985)l hemos considerado las aplicaciones de este ti po de aproximaciones discretas en el d iseño de -

f i l t r o s para la estimación recursiva del estado de sistemas dinámicos esto cást icos , lo que contribuye a l a motivación para considerar este tipo de - técnicas. Se incluyen resultados de l a implantación computacional de es- tas técni cas.

Para terminar y a 1 a vez redondear esta Introducción , i ndicaremos l a manera en que las trayectorias generadas en los capí tulos 2, 3 y 4 pue - den u t i l i za r se para aproximar valores de la solución de W F ' s y PVIF's, - mediante las respectivas técnicas de Monte Carlo. Para e l l o y, sin s a l i r - nos del ámbito unidimensional , sea el operador elíptico,

1 d 2 d A:= a ( x ) - + b ( x ) - dx dx

y sea T el instante en que 1 a difusión x. asociada a A abandona e l i n - tervalo D:=(a,b) por vez primera. Finalmente, sea Px la probabilidad

según l a cual P (x =x) = 1 y denotemos Ex l a operación de tomar espe-

ranza con respecto a Px. x 0

En la sección 1.4 s e demuestra que l a fórmula

da la solución del W F

Au=O en D; u l a D = f

Asimismo, en dicha sección también se demuestra que 1 a solución del PVIF

a = Au en ( 0 , ~ ) xD a t

u (0 ,x ) = f ( x ) , x E D

Dicho PVIF resu l ta , por ejemplo, en el siguiente contexto: se tiene una barra metálica uniforme de l o n g i t u d 1 y difusividad térmica a , aislada térmicamente por todas partes. Además, se conoce el perfi 1 i n i - c ia l de temperatura a l o largo de l a barra., Se desea determinar cómo va - r í a en el tiempo dicho perfi l de temperatura. Para ello, sea u(t ,x):=tem - peratura en el p u n t o x de l a barra, t segundos después de iniciado el experimento y supongamos que u t iene e l grado requerido de suavidad, - Entonces, la ley de la conservación de la energía acoplada con l a ley de Fourier para l a conducción del calor se traduce precisamente en e s t e PVIF. Para l o s deta l les , véase [Bird e t , a l (1960)1,

De nuevo por e l método de separación de variable, obtenemos la solu - ción en l a forma de 1 a s e r i e de Fourier

W

u ( t , x ) = A. + C \ exp (-a - k nx k = l

donde 1 A. = 1s f ( s ) d s

l o 1

O Ak = ;{ f (S) cos 1 k m ds, k = l , 2 . . .

Aquí también podemos substituir las expresiones que acabamos de da r para los coeficientes de 1 a s e r i e de Fourier, i ntercambi ando 1 uego e l orden de la suma y l a i n t eg ra l , para obtener así la solución en l a forma

u ( t , x ) = j o P t ( x , s ) f ( s ) d s .

don de

f1 Pt(x,s) > O , O < S < 1 ; Pt(x,s) f(s) ds = 1.

- - J o

Razonando igual que en los ejemplos anteriores, construimos una va - r iable a leator ia Xt d is t r ibuida según

/b P(a < Xt < b ) = j Pt(x,s) ds.

a

con lo cual podemos dar la sol uci ón en 1 a forma

Se l lega as í a una expresión probabilísti ca para la solución del PVIF planteado: el perfil de temperatura en cada instante se determina promedi ando adecuadamente los valores del perfi 1 i n i cia1 o

Hay semejanzas y diferencias entre las fórmulas (1) y ( 2 ) por un lado y l a fórmula (3) . En las siguientes secciones exploraremos estas relaciones en términos del concepto de proceso estocástico. Por lo pron - t o podemos anotar ya el hecho de que pueden darse expresiones probabi l i s - t i ca s para las soluciones de PVF's y PVIF's asociados a algunos ope- radores diferenciales de segundo orden. Aunque aquí hemos i lustrado l o anter ior sólo para tres operadores específicos, en la sección 4 haremos ver cómo estos resultados se desprenden como coro1 ar ios de otros, mucho más generales. Por lo pronto, daremos una breve introducción al campo - de los procesos estocásticos en las s iguientes dos secciones, con objeto de tener a l a mano el material requerido para estos fines,

Agradecemos la eficiente labor mecanográfica de este t rabajo real i - zado por Beatriz Arce y Sonia Cabeza.

L A P I T U L O I

1. Soluciones probabi l í st icas de ecuaciones diferenciales

Los ejemplos que damos a cont inuac ión i lust ran las muchas interac - cienes que existen entre campos de l a Matemática aparentemente disconexos como son la Probabi 1 idad y l a s Ecuaciones en Derivadas Parciales. Más - adelante, en l a última sección de este capítulo, haremos ver cómo pueden deducirse de manera s istemática muchos otros ejemplos análogos. Todos

estos resultados pertenecen a una rama de l Aná l i s i s de gran r iqueza, cu-

yos orígenes pueden t razar se a [Kac (1951) , (1966)] , [Kakutan (1944)l y,

aún más a t rás en el tiempo, a [Courant et a l (1928) l .

EJEMPLO 1. Consideremos el problema de valores a l a f r o n t e r a (P'JF)

u" = O en (a,b) 9 u(a) = A,u(b) = B

cuya solución es

u(x) = A(&) + B ( E ) .

según se comprueba con faci l idad. Observamos que l o s dos términos entre

paréntesis son no negativos para a " < x < b, además de que suman 1; deno

temos al primero mediante el símbolo px.

Podemos pensar en el siguiente experimento: fija x, construimos

una moneda que, a l lanzar la, ar roje águ i la con probabilidad px, sol con

probabil idad 1-px: s i sale águi la, e legimos el extremo a del interva -

l o ta ,b3, e l o t ro extremo en caso contrario. Procediendo de manera más formal, sea Z una VA t a l que

P(Z = a) = px, P(Z = b) = 1-px.

y sea f l a función dada por al -> A, b l --> B. Entonces, f(Z) es una var iab le a leator ia d i screta, que toma l o s va l o re s A y B con pro-

2.

babil idad px y 1-p , respectivamente: así pues, su esperanza no es otra

que Apx + B ( l - p ), es decir , u ( x ) . En otras palabras, X

u ( x ) = Exf(Z)

Hemos incluido el subindice x para hacer exp l í c i to e l hecho de que el punto x permanece f i j o en toda 13 d i scusión,

EJEMPLO 2, Sea ahora e l W F

Au = O en D , U l a D = f

donde D es u n disco abierto de radio a en e l plano, f es - continua en el contorno de D y A denota el operador Lap1 aci ano, Basta introducir coordenadas polares (rye) y apl icar e l método de separación de variables [Courante-Hi l b e r t , vol. I(1966)j seguido de una manipulación - formal intercambiando se r i e s e integrales, para 1 legar a que

expresión que da el valor de la solución en (r ,e) como un promedio adecua - do de los valores que toma en la frontera: en efecto, resul ta que.

1 a2 - r2 . r IT a2 + r2 - 2 arcost

P ( t ) : = 2 O < t < Z I T ”

(el llamado núcleo de Poisson), de donde se ve que

además de que

3.

Esta última relación es Máximo [Levi (1980) , p. 421 o

Igual que en el ejemplo

consecuencia directa del Principio del -

anter ior , podemos construi r una V A Z que " e l i j a u n punto en a D l ' según l a l ey de probabilidad

P(a < Z < b ) =

con l o cual de nueva cueyta obtenemos que

A q u í hemos incl uído el subindice (r,e ) para indicar que l a l ey - probabil ística correspondiente cambia con el punto elegido.

Podemos observar un buen número de semejanzas entre los dos ejem- plos anteriores. Por ejemplo, en ambos la expresión probabilist ica de - la solución es del tipo "esperanza de los valores de l a condición a l a frontera calculada en puntos elegidos aleatoriamente sobre l a misma", - con una ley probabil íst i ca dis t inta para cada punto del dominio en cues- tión. Por otro lado, hay que reconocer que ambos ejemplos tratan de sen- dos PVF's asociados a operadores diferenciales de segundo orden: es to puede muy bien estar en la ra íz de l a s semejanzas observadas entre (1) y ( 2 ) . Veamos a continuación un ejemplo de naturaleza dis t inta , en el que se resuelve un problema de valores iniciales y a la f rontera (PVIF) aso- ciado a un operador 1 ineal paraból i co.

EJEMPLO 3, Consideremos el PV IF

u(0,x) = f ( x ) , o < x < 1

4.

t iene como representación estocásti ca a

Al respecto, se trata de estimar esperanzas de c i e r t a s V A ' S , por l o que conviene recurr i r a l a Ley de lo s Números Grandes ( L N G ) ; en su f o r - ma fuer te IRuiz Moncayo (1980) I , dicho teorema expresa la consistencia de l a media muestra1 como estimador de 1 a esperanza de una UA, con probabil - i dad 1. En otras palabras, establece la conveniencia de adoptar el siguien - te algoritmo para estimar las esperanzas requeridas para el cálculo aproxi - mado de la solución de un PYF o un PVIF dado:

ALGORITMO

i )F i j a r un punto Q E D y t - > O , si se aplica;

i i )Observar la t rayector ia de 1 a d i fusión que parte de Q

a ) hasta que toque aD por vez erilnera (FVF)

b ) durante t segundos (PV IF)

anotando la posición final P .

¡¡¡)Calcular f ( P ) , donde f e s

a ) l a condición a la f ron tera ( W F )

b ) 1 a condición in i c i a l (PV I F )

iv)Repetir los pasos anteriores N veces, obteniendo los valores es f ( P i ) , i=ly0. . ,N.

v ) Calcular el estimador

5.

A

uN:[f(P1) + ... + f(P,)]/N

Por l a LNG,

h

a ) P ( u N --> u ( Q ) cuando n --> 02 ) = 1 (PYF) ,

A

b ) P ( u N --> u ( t , Q ) cuando n --> m) = 1 (PVIF).

Aunque es razonable en v i s t a de l o ya expuesto, este algoritmo no precisa lo que se entiende por "observar una trayectoria de la difusión", tampoco dice cómo hacerse de una. Lo más recomendable parece ser real i- zar experimentos f i c t i c i o s , con el auxi l io de l a computadora, técnica co - nacida como simulación. En otras palabras, las trayectorias requeridas se generarán medi ante al gori tmos computaci onales adecuados , al desarro- l l o de los cuales dedicamos los siguientes tres capítulos.

En l a monografía [Hernández/Al varez(1985)l hemos presentado l a s técnicas de simulación requeridas para llevar a la práctica dichos algo- ritmos .

6 .

2. El movimiento browniano

Recordemos 1 a fórmula (1.3) , que resuelve el PVIF Je la sección dnterior, En e l l a f i gu ra una familia de V A ' s , [ X t , t > O sobre un - cierto espacio probabilistic0 que ahí no se precisa , pero que por fuerza está presente. Dicha colección es una instancia par t icular del importan - t e concepto de proceso estocásti co, que permi te ac la rar l a re lac ión en t re l a s Ecuaciones Diferenciales y la Probabilidad.

Brevemente, u n proceso estocásti co ( P E ) sobre un espacio probabi - l í s t i c o dado no es sino una familia cualquiera de VA's sobre dicho espa - cia. A q u í nos interesarán PE's con tantas V A ' s como números reales no negativos, tal como el protagonista de (103): al parámetro t > O se le ident i f icará con e l tiempo. Surgen t a l e s PE's al modelar e l movi - miento de partículas bajo condiciones no determinísticas, como en el s i - guiente ejemplo.

EJEMPLO 1, El efecto Tyndall

Bajo condiciones usuales , el movimiento de una partícula puede ana - l izarse bajo una óptica determinística, es decir , mediante las leyes de l a Mecánica Clásica, Sin embargo, al acercarnos a l o microscópico empie- zan a surg i r fenómenos que aparecen como no determinísticos: tal es el caso, por ejemplo , del movimiento de una par t ícula de polvo, ta l como s e ve al iluminarla mediante u n rayo de luz en e l i n t e r io r de u n cuarto obscuro. Las t rayector ias que se observan tienen apariencia errá- t i c a , si bien son continuas , por lo que no parece adecuado modelar e s t e movi - miento mediante el formalismo newtonia- no, En su lugar, construimos u n espa - cio probabilíst i co < ~2. ,a, P > en el

7 .

que R consta de todas las funciones continuas de la va r iab le rea l - t L O, con valores en R 3 , Los eventos son conjuntos de funciones con- tinuas: por ejemplo, el de que " l a s t rayector ia s comiencen de un punto - dado x E R 3 I' es:

{u E R w ( 0 ) = x);

Una convención muy común u t i l i z a l a f u n c i ó n Xt: R -+ IR3 dada por

Xt (u) : = u( t ) , t - > O, con l o que l o s dos eventos anteriores se denotan me -

diante (Xo = x ) y (Xt E A ) , respectivamente.

El efecto Tyndal 1 a que se hace mención en el ejemplo anterior se

conoce también como movimiento browniano, en honor al botánico inglés - Robert Brown, quien lo estudió en un con- texto a lgo diferente, en 1828, A l estu - d i a r l a f e r t i l i z a c i ó n de algunas plantas o r i g i n a r i a s de Austra l ia , Brown observó - al microscopio el movimiento de granos de polen suspendidos en agua, fenómeno por de - más e r rá t i co y ajeno a l o conocido hasta - entonces o

Durante buena parte del Siglo X I X fue imposible para los c ient íf i - cos explicar la naturaleza del misterioso movimiento browniano. No fue' s ino hasta 1877 que Delsaux, un f í s ico francés, ofreció una expl icación no v i t a l i s t a , en términos de l a s f ue r za s que sobre l a p a r t í c u l a de polen ejercen 1 as moléculas de agua que 1 a rodean. En 7 L Hernández (1981) 1 nos hemos ocupado del model amiento de este fenómeno desde diferentes ángulos, partiendo de diversas suposiciones acerca de l a con s t i t uc i ón del tiempo y

8.

del espacio. A h í también damos una construcción detallada del modelo de Wiener a l que nos referimos más adel ante.

Einstein, en 1905, dio una teoría cuantitativa del fenómeno (véase [Einstein (1959)] ) , en 1 a que obtuvo l a manera de asignar yrobabi 1 i dades de transición, concepto mediante e l cual se busca predecir el futuro en función de l a información presente; calculamos según

En el tratamiento de Einstein figura la separación del movimiento browniano en t r e s componentes independientes, cada una de las cuales cons

t i tuye un movimiento browniano unidimensio - nal . Físicamente, éste no es o t ra cosa - que l a proyección del movimiento f í s i c o en una de 1 as direcciones coordenadas. Si l o

x, -

t graficamos contra el tiempo, se obtiene - una figura parecida a l a que s e da aquí a 1 a i zqui erda.

Einstein dio l a fórmula para l a densidad de transición en una dimen - sión, a saber

En 1923, Norbert Wiener, matemático de nacionalidad norteamericana, construyó u n espacio probabilístico y un PE definido sobre é1 para los que se cumplen las dos relaciones (1). Dicha construcción constituye u n modelo riguroso sobre el cual se puede basar una t eo r í a del movimiento - browniano que r e su l t e s a t i s f ac to r i a desde el punto de vista matemático; - en honor a su creador, dicho modelo se denomina proceso de Wiener. Breve - mente, el proceso de Wiener es una colección

9.

de VUA's sobre un espacio probabilistic0 4 , ,P>, que sa t i s face

i ) P(Wo = O ) = 1

i i ) Para S < t cualesquiera y

f

con p como en ( I ) ' ' ¶ y

i i i ) Para cualquier elección de n > 1 y de instantes tl,tp, ..., tn

(1 istados en orden ascendente), los incrementos

son V A ' S i ndependi entes.

A p a r t i r de estas tres condiciones, en 1 a teor ía de Wiener del mo- vimiento browniano se prueban dos resultados muy profundos:

a ) P ( t l ->I$ es continua) = 1,

b ) P ( t l ->!E!.+ es diferenciable en algún punto) = O . L.

Así pues, el modelo de Wiener nos da una manera de probabilizar el espacio de las funciones continuas sobre [O,m), según l a cual l a s f u n - cienes que son diferenciables en algún punto caben en un conjunto de pro- babil idad cero.

Desde el punto de vis ta f ís ico, la cont inuidad de las t rayector ias pone en evidencia el carácter clásico de l a pa r t í cu la browniana en e s t a formulación. Por o t ro l ado , l a no diferenciabil idad de las t rayector ias impide asignar velocidad instantánea a la par t ícu la browniana, l o cual no resu l ta sa t i s fac tor io desde e l punto de v is ta f í s ico . Por esta razón,

10.

los tratamientos físicos acerca del movimiento browniano se basan en - otros modelos, no en el de Wiener-Ei nstei n : por ejemplo , véanse los ar- tículos sobre la ecuación de Langevin en [Wax(1954)] , a s í como [Braun (1984)].

S in embargo, se demuestra en l a l i t e r a t u r a matemática que esos modelos dinámicos del movimiento browniano pueden obtenerse a partir del de Wiener [Nelson(1972)], mediante transformaciones adecuadas de sus t r a - yectori as. Por esa razón el modelo de Wiener continúa en el corazón de la t eor ía matemática del movimiento browniano. Dentro de e s t e e sp í r i t u , en la siguiente sección daremos l a t e o r í a de los procesos de difusión en una dimensión, poniendo énfasis en su construcción a partir del proceso de Wiener.

J

11.

3. Difusiones en una dimensión

En todo lo que sigue <R,a,P> denotará un espacio probabil ístico sobre el cual está definido un proceso de Wiener {Wt,t > O). Para cada t - > O , sea 'la sub- o -álgebra de a generada por los valores pasados y presente de dicho proceso: de manera equivalente, por los incrementos pasados del mismo. En otras palabras ,

t

Observemos que {dt} constituye una fami 1 ia creciente de sub- u - álgebras de& , es decir , una f i l t rac ión , a 1 a cual denotaremos por Q . o

De l a misma manera, usaremos la notación abreviada y, para denotar al PE {xt , t > O). Los PE's en esta sección tienen trayectorias continuas.

Es una consecuencia di recta de las propiedades i i ) y i i i ) del pro - ceso de Wiener (ver la sección 2 ) que

lo cual se abrevia diciendo que el proceso de Wiener es una martingala (MG) [Doob(1953)]. Más aún , esta MG da lugar a una infinidad de otras también asociadas a e s t e proceso, propiedad reproductiva que formará el hilo conductor de cuanto sigue, que mucho debe a l tratamiento dado en [Stroock-Varadhan ( 1 9 7 9 ) j .

Por ejemplo, se prueba también a par t i r de las propiedades i i ) y i i i ) del proceso de Wiener que Wt-t es una MG. De a h í es casi inmedia t o que, s i definimos

2

-

12.

{Mt(f),t 2 O ) es una MG

s i f es cuadrática.

En efecto, basta u n cálculo directo y la consideración de que toda combinación 1 i neal de . MG's es una MG para probar plenamente l a a f i ma - ción anterior.

Ahora b i e n , las funciones dos veces continuamente diferenciables (es decir , "de clase C 2 " ) son aquellas que pueden s e r aproximadas "bien" medi ante u n polinomio de segundo grado, en vi r t u d del Teorema de Taylor. Resulta entonces razonable esperar que ( 2 ) se cumpla para cualquier f E C2. En efecto, se t iene de hecho la siguiente caracterización del proceso de Wiener, para cuya demostración nos referimos a [Stroock-Varadhan op. c i t . ] :

l l U n P E x . es el de Wiener s i y solo si cumple (2), cualquiera - que sea f E c2".

Esta propiedad nos permi t e darnos cuenta del importante papel que en la teoría del proceso de Wiener juega el operador diferencial:

razón por la cual en algunos contextos se llama a este operador el genera- dor del proceso de Wiener. -

Surge de aquí la idea de considerar otros operadores (diferenciales o no) j u n t o con otros PE's, para l o cual introduciremos el siguiente con- cepto, donde AC denota el espacio de todas las funciones reales, medi- bles y acotadas sobre Rn , normado por el supremo:

13.

DEFINICION 1.

Mt(f):=f(Xt) - f(Xo) - l)f (xS)ds ( 4

Se dice que x. está asociado a A s i M . ( f ) es una MG para cualquier f E C T

En particular, W. está asociado al operador (3) . Asimismo, s i de - finirnos xt:=g(Wt), para g E C 2 , entonces x. está asociado al operador diferencial

En general , se prueba fácilmente que, s i x. está asociado al opera dor di ferenci al

entonces g(x. ) , con g € C 2 , está asociado a

Nos damos cuenta de que 1 a clase de los operadores diferenciales A del tipo ( 5 ) es interesante, pues no se trasciende al transformar sua- vemente procesos asociados a operadores en e l l a . Más aún, s i a ( x ) > O

en (4) y g ‘ no se anula, entonces el operador asociado al proceso trans -

14.

formado por g también tiene coeficiente principal positivo.

DEFINICION 2.

Una difusión es u n PE x. asociado a un operador como (5), con a y b continuos, a positivo.

En otras palabras, el proceso de Wiener es una difusión, igual que sus transformaciones. Queda todavía e l problema de caracterizar de algu- na manera operativa 1 a clase de todas 1 as di fusiones y , más importante aún , dar u n procedimiento para construir una difusión dado e l operador corres- pondi ente.

Con ese f in , comencemos por observar que M. ( f ) t iene trayectorias continuas y está adaptado a l a f i l t r a c i ó n a . , que es la generada por los incrementos browni anos. Además, se t rata de una MG de cuadrado integra - ble. En vista del teorema de representación de Clark [Clark(1970)] para cada f E C 2 exis te un proceso medible z. t a l que

i i ) E IzSI2ds < m, i

En i i i ) , l a i n t e g r a l que aparece es una integral estocástica, toma - da en el sentido de Ito. Para es te y .otros conceptos de la teor ía de in- tegración estocástica referimos a los lectores al capítulo 4 de [Wong-Hajek (1985)]

En otras palabras, se cumple que

f t /t f (x,) = f (x,) + ),Af(xS)ds + J,ZdW,

15.

para cualquier f E C2 , relación en l a que aún f a l t a i den t i f i ca r e l i n t e - grando z .

Un resultado muy famoso de Ito afirma que, si x. es una difusión, entonces

por lo cual

f t ít f (x,) = f (x,) +) -Af (x,) ds +]; f ' (X,) Ja(xS)dWS,

O

cualquiera que sea f € C2. En par t icu lar , podemos e l eg i r f ( x ) = x, con lo que ( 6 ) da lugar a

Se acostumbra e sc r ib i r e s t a ir1 tima relación en forma diferencial , como u n problema de valores iniciales .

y entonces se le conoce como una ecuación diferencial estocástica ( E D E ) . A q u i hemos puesto o : = &, notación que conservaremos durante el resto de este trabajo.

De acuerdo con 1 a Regla Diferencial de I to [Wong-Hajek , op. ci t .I , si x. sa t i s face l a E D E ( 7 ) y si f E C2 , entonces f ( x . ) necesariamente sa t i s face (6 ) . Por lo tanto, las difusiones son las soluciones de EDE's - del t ipo de *( 7 ) . En 1 a siguiente sección nos ocupamos brevemente de 1 a construcción de difusiones, a reserva de ocuparnos de dichas cuestiones con mayor de t a l l e en el siguiente capítulo.

-

16.

4, So luc iones probabi l í s t icas de EDP's

Sea x , una difus ión en e l sent ido que definimos en l a s ecc i ón

anter ior, asociada a un operador diferencial A del t ipo (3.5) , con a > O. Sabemos que podemos cons t ru i r 1 as trayector ias de x. transforman - do adecuadamente l a s del proceso de Wiener, según prescribe (3.7). A - continuación veremos cómo expresar las so luc iones de PVF's y PVZF's aso - ciados al operador A como funcionales de la s t rayector ia s de x,

Para comenzar, 1 a ecuaci ó n di ferenci a l estocást i ca

define un algoritmo para construir 1 as trayectorias de x. a par t i r de l a s de W. , a l menos en pr inc ip io . En efecto, podemos cons t ru i r una suce-

s i ó n de aproximaciones {x.(n))> mediante el algoritmo

x o . (n+l): = X +J*b(xs(n))ds +i.a(xs(n))dWs, O O

con x = x, para x E R dado. Se obt iene a s í una sucesión de PE ' s - que, s i b y a son suficientemente suaves converge a un Único 1 ímite; - además, s i l a convergencia es suficientemente fuerte, es automático que e l proceso l ímite sat i s face ( I ) ,

O

Por lo pronto, observamos que, de (2),

donde en los puntos suspensivos no f igura para S > t. P o r l o tan-

to , s e cumple que

17.

Es de esperarse que l a propiedad anterior se preserve bajo la con- vergencia, si es suficientemente fuerte, De ser as í , se tendrá que

para t > O , h > O a rb i t r a r io s , A un bore1 i ano arb i t ra r io de la rec ta , Si se cumple esta propi edad, se di rá que x. es de Markoff.

-

En el capítulo 4 de [Wong-Haiek op. cit.] se prueba que el método de aproximaciones sucesivas arroja una sucesión convergente de PE's y que todo lo an te r ior se cumple bajo las siguientes condiciones sobre los coefi ci entes de (1 ) :

A ) Condición de crecimiento lineal

B,) Condición de Lipschi t z ,

donde K es una constante positiva adecuada.

Para resumir, bajo las condiciones A ) y B) exis te un fnico PE x. que sa t i s face (1 ), mismo que se obtiene como lími te de l a s aproximaciones sucesivas , en el sentido de que

uniformemente en t si restringimos esta variable a intervalos compactos , digamos [O,T]. A su vez, l a unicidad de la solución así obtenida debe entenderse en el sentido de que, si y. e s o t r a que resul ta de aplicar el algoritmo ( Z ) , entonces

18.

para cualquier T > O .

Más aún, l a convergencia ( 4 ) nos arro ja u n límite x. que es de Markoff, además de tenr trayectorias continuas.

La propiedad de Markoff es muy importante y , en términos informa- l e s , s i g n i f i c a l o siguiente: por lo que se re f iere a predecir el comporta - miento futuro de la t rayector ia , no hay más información en e l pasado que l a contenida en el presente de l a misma. En otras palabras, el presente xt puede servir como condición inic ia l para predecir el futuro,

{xs, S ' t}"

Por lo que se ha dicho, 1 a propiedad de Markoff genera un comporta - miento en el proceso que recuerda el que se observa en las ecuaci ones di - ferenciales. A continuación haremos aún más explícita esta conexión, pa- ra l o cual supondremos que se cumplen l as condiciones A) y B ) , de mane - ra que exis te una úni ca difusión asociada al operador diferencial

1 d 2 d dx A:= a(x) - + b(x) - ,

dx

l a cual tiene trayectorias continuas y es de Markoff además de cumplir l a condición in ic ia l x = x. Para hacer más explícita esta última propie- dad , denotaremos 1 a correspondiente probabi 1 i dad mediante el símbolo - Px y a l a operación de tomar esperanza por Ex.

O

Bajo estas condiciones, efectivamente tenemos una MG M. ( f ) sobre <R,&,P >, de t a l manera que

X

r.

f (x.) = f ( x ) + J, A f (xs) ds + M. (f)

19.

además de que Mo(f) = O, cualquiera que sea f E C 2 .

En lo que sigue utilizaremos el concepto de tiempo de paro (TP) - asociado a la f i l t rac ión a, Se entiende como t a l a toda V A T que toma valores en O , y , además.

Por el Teorema de Muestre0 Opcional para MG's [ Doob op. c i t j , cualquiera que sea el TP T debe c'umpl i r s e que

En consecuenci a

Exf(xT) = f ( x ) + Af(xs)ds, l: re1 aci ón que s e conoce como fórmul a de Dynkin.

Sea ahora u solución del ?VF

Au = O en (a.b); u(a) = A,u(b) = B ( 7 1

Definamos el tiempo aleatorio T:Q -f [O,-lque marca el instante en que x. sale de dicho intervalo por primera vez, es decir

T(w) := in f { t > O:xt(w) E! (a ,b)) .

Es u n resul tad0 conocido que T es u n TP en el sentido de (5).

Además , es claro que

Au(xs(w)) = O , O < S < T(w) .

A s i xT = a

B si xT = b u(xT) = {

20.

por lo que

Exu(xT) = APx(xT = a ) + BPx(xT = b )

De l a fórmula de Dynkin resulta entonces en forma inmediata que

u(x) = APx(xT = a ) + BPx(xT = b ) , ( 8 ) I

resultado que explica la solución'que dimos del ejemplo 1.1.

La correspondiente formulación para d i fusiones mu1 tidimensionales nos proporciona l a fórmula estocástica para la solución de PvF's como

1 n n

i , j=l j i=l 2 a i j ( x ) axiax a 2 u + C bi (x) = O en D , ax

donde D es u n dominio en Rn y f e s una función medible y acotada en D. Directamente de l a fórmula de D Y n k i n ,

donde T denota ahora el instante en que x. abandona D por primera vez.

Definamos ahora una familia

Vt,t > 01

de operadores lineales sobre AC mediante

21.

P t f (x) := E x f (Xt) (9 1

para f E AC , x E R. Si f está en el dominio de A , de (1) tenemos que

t

O Ptf(x) = f ( x ) +j PtAf (xS)ds.

En e fecto , M. ( f ) e s una MG y entonces su esperanza es constante, es decir, vale cero en es te caso ya que Mo(f) = O . En particular,

P o f = f ,

además de que

- P f ( x ) = PtAf (X) d d t t

para cada f E DA, x E IR . De aquí es claro que

para f y x adecuados , relación que nos da una interpretación del opera - dor A .

Más aún, l a propiedad de Markoff es equivalente a l a condición

Px(Xt+s E dy)P (X E A ) . Y S

relación que se conoce como de Chapman-Kolmogoroff [véase Doob (1953)l . A su vez, ChK se puede escribi r en l a forma de

Pt+s = P t P S (13)"

llamada l a propiedad de semigrupo de { P t l .

22.

Por 1 a propiedad de semigrupo, es claro que los operadores de l a fami 1 i a { Pt} conmutan. De ahí es inmediato que

P h f -f Ph ( Pt f )- Ptf P t ( T ) = h

y , tomando el 1 ími te cuando h -+ O , nos convencemos de 1 o sigui ente: P t f E DA para cualquier f E AC y , además,

APt f = PtAf. \

En par t icular , de (11) obtenemos que

- P f ( X ) = APtf(x) d d t t

Las relaciones (11) y (14) se conocen como ecuaciones de Kolmogoroff, hacia adel ante y hacia atrás, respectivamente y forman l a base del enfoque tradicional al estudio de los procesos de difusión. Para nosotros, la ecua - ción (14), j u n t o con (9), nos indica que l a función

u ( t , x ) : = P t f (x )

resuelve un PVI. Más especificamente, la solución del PVI

" - A U en (O,..) X D a t u(0.x) = f ( x ) , x E D

t iene como representación estocástica a

u ( t , x ) = E x f ( X t ) .

Con e s to queda establecido sobre bases firmes el ejemplo 1 de l a

23.

sección 3 y terminamos nuestra breve presentación del tema. Recomenda- mos a los lectores interesados consultar el capítulo 6 de [Friedman (1975)l para ampliar sus conocimientos sobre el tema,

1.

C A P I T U L O

Introducción

Estamos interesados en la so luc ión de l a EDE(1.3.7), que por como-

didad volvemos a escribir:

dxt = b(xt)dt .f o(xt)dWt; x. dado

Desgraciadamente , só l o en muy contados casos es fact ible resolver-

l a analíticamente, y encon t ra r a s í l a d i f u s i ón x. que l a s a t i s f a ce . En

l a mayoria de los casos deberemos contentarnos con encontrar aproximacio- nes numéricas de x. Más precisamente, s i contamos con algún procedimien - to numérico para generar trayectorias aproximadas de movimiento browniano W. (ver el capítulo 3) aunado a un método de integración numérica, podre- mos generar trayectorias aproximadas de 1 a di fusión x. Así , para cada - trayectoria aproximada de W. obtendremos una trayectoria asociada de x.

Repitiendo el procedimiento un c ie r to número de veces, podremos ob - tener una muestra de trayectorias aproximadas de l a d i f u s i ó n x. en un in- tervalo de tiempo, digamos [O,T] , que puede ser aprovechada de var ia s ma- neras. Por ejemplo, para algún instante de interés LE[O,TJ tendremos - una muestra de la va r iab le a leator ia x t , que nos permi ti rá e s t imar su s propiedades distribucionales, O bien, podemos estudiar tiempos de paro, por ejemplo el tiempo T que tarda el proceso en sal ir del intervalo (a,b) - partiendo de x. E (a,b). O alternativamente, .bajo l a s mismas condicio- nes podemos es t imar l a p robab i l idad de que alcance el valor a antes que

e l b.

Tendremos dos fuentes de error a l generar las trayector ias aproxi- madas de l a d i f u s i ó n x . : l a primera resulta de l a d i s c r e t i z a c i ón del - tiempo y el método de integración numérica que usemos; l a segunda de usar una aproximación del movimiento browni ano en 1 ugar del proceso real W . En las secciones 2 y 3 analizaremos por separado estas dos fuentes de - error, y en l a s e c c i ón 4 mostraremos algunos resultados computacionales.

25.

2. Efecto de la discretización del tiempo.

En esta sección supondremos que contamos con trayectorias exactas de movimiento browni ano W . y no sólo con aproximaciones.

Aprovechando el carácter markoffiano de l a d i f u s i ó n x. buscaremos soluciones aproximadas x. de ( l o l ) d e f i n i d a s recursivamente en u n conjun to discreto de tiempos:

- -

o = t o < t < . o . . . 1 = "

empezando en yo = x. y mediante algún método de integración numérica calculamos las siguientes xi como aproximaciones de x t i 9 i = 1 , 2 9 . 0 . 9 n . En los puntos intermedios usaremos interpolación l ineal:

-

obteniendo así trayectorias continuas xt en [ 0,TI. Por simp1 i cidad, en l o que sigue supondremos que tenemos incrementos de tiempo iguales: titi - ti = h; i = 1 , 2 , . 0 . , n .

-

Un esquema senc i l lo de integración numérica es el análogo estocás- t i c0 del método de Euler:

donde AWi representa el incremento de W t en el intervalo [ti ,titi].

Maruyama (1955) demostró que e s t e método converge uniformemente en media cuadrática a x t 9 o sea que:

26.

Podemos obtener mayor precisión con e l método de integración de Heun, que resul ta de uti l izar la regla trapezoidal en vez de l a escalona - da para aproximar las integrales sobre [ti, ti+l]:

con el predictor de Euler:

McShane (1974) demostró que e s t e método también converge uniforme- mente en media cuadrática, en el mismo sentido ( 2 ) , pero ya no a l a solu- ción de (1.1). En efecto, McShane prueba que e l proceso 1 ími t e x. s a t i s face :

-

Nótese que (1.1) y ( 4 ) sólo difieren por el factor que multiplica a d t , por lo que a l u t i 1 i zar e l método de Heun (3) debemos tener cuidado de introducir u n término de corrección en b (x t ) . De es ta manera, el mé- todo de Heun (3) da u n resul tad0 equivalente al método de Euler (1).

Observando que los métodos de E u l e r y He& son ambos del t ipo Runge-Kutta, Rümelin (1952) estudió los esquemas de este t ipo para el caso estocásti co, abarcando a s í una c lase muy amplia de métodos numéri- cos. En l a notación de RUmelin, los métodos de Runge-Kutta de orden m + l son como sigue:

m m - 'i+l -

- - + C p . K . h + C q . G . AWi j =O J J j =O J J (5) '

27.

donde :

KO = b ( x i ) Go = a(';;i)

x i ( ' )= Xi + Bl0 KO h + yl0 Go AWi

K1 = b(xi (1)

. . . . . . . . . . .

con la restr icc ión:

m m c p j = c q j = l

j =O j = O (5) I l '

Basándose en e l resultado de Maruyama (1955), Rtimelin (1982) demos - trÓ que cada uno de estos métodos Runge-Kutta de orden mtl también con- verge uniformemente en media cuadrática, en el mismo sentido (Z ) , pero a l a solución de:

dx t = [b(xt) + A&(, dx t ) a(xt)]dt + a(xt)dWt (6) '

con el factor de corrección X dado por:

x =(" si m=O

(6 ) "

Lo Único que se requiere para que la solución aproximada x. que - arroja el esquema (5) converja a la solución de l a ecuación ( 6 ) es que:

sean acotadas. Nótese que este requerimiento no representa rljnguna res- tricción adicional cuando trabajamos en una computadora, ya que cualquier número generado en el 1 a e s t á acotado por su propi a capacidad [ Rümel i n (1982)] .

Para obtener una solución de l a EDE (1.1) con el método Runge-Kutta ( 5 ) , sólo debemos sustituir el término b ( x t ) por el término corregido:

en (5), ya que entonces (6 ) equivale a (1.1).

RUmelin (1982) también investigó el orden de l a convergencia, y l legó a la conclusión de que e l esquema de integración numérica (5 ) a l - canza el mejor orden posible,

Para precisar, diremos que se t iene u n orden de convergencia O ( h r ) si

E (Ft - x ~ ) ~ = O ( h r ) para t E [O,T]

donde

29.

lim sup ( l / h r ) O ( h r ) < c o o

h + O

El orden de convergencia que puede ser alcanzado mediante integra - ción numérica depende de l a función:

Si S # O , el mejor orden,posible es O(h2) y l o alcanza el méto- do de Heun (3), uno de la famil ia (5), para e l cual X = 1/2.

Si S = O , el mejor orden posible es al menos O ( h 3 ) . Este orden l o alcanza el método c lás ico de Runge-Kutta de cuarto orden (m = 3 ) , con tenido en (5), para el cual X = 1/2.

-

Para l legar a estos resultados, se supone que b y CJ y sus deriva- das parciales hasta de cuarto orden son acotadas y continuas.

Estos resultados pueden extenderse al caso en que b y o no sólo dependen de xt , s ino también de t :

b = b(t ,xt ) u = u ( t ) 'Xt

También pueden extenderse al caso en que x. y W. sean mu1 tidimen - sionales. Al lector interesado en estas extensiones se le recomienda con- su l tar [Rümelin (1982)].

30.

3. Efecto de l a aproximación del movimiento Browniano.

En esta sección anal izaremos el error que se produce en 1 as trayec - torias aproximadas de l a di fusión x. cuando usamos 1 as trayectorias aproxi - madas del movimiento browniano W. , siguiendo el t raba jo de Janssen (1984), al que remitimos a los lectores interesados en los detal les.

En l a EDE ( 1 . 1 ) supongamos que los coeficientes b y CJ sa t i s fa - cen una condición de Lipschitz uniforme y que CJ es acotada,

Por los resultados de l a sección anterior sabemos que 1 a solución de l a ecuación en diferencias:

- x. = x ; n = O , l , ..., N-1

Converge uniformemente en medi a cuadráti ca a xt. Al implantar en l a computadora el esquema en diferencias ( 1 ) , obtenemos trayectorias aproximadas del proceso de Wiener W. Lo que se ha hecho entonces es - reemplazar W , o t r a variable aleatoria W resultando en consecuen- c ia u n nuevo esquema en diferencias:

n ,m

X 0 ,m = x ; n = O , l , . .. , N-1 (2 1

s i ~ w o Y m ~ . * u w 1 4 ~ ~ , m ) 3 (Awl ,. . . , AM, d ) donde D denota convergen-

cia débil , entonces X -P Xn. En efecto, es fáci l ver que D n ,m,,,

X - -

n ,m - Wo,m.Wlym,. . . "N-1 ,m) donde $, es una función -

31.

continua; de aquí la afirmación. Entonces estamos interesados en obtener estimaciones para la rapidez de dicha convergencia, La respuesta la dare - mes en términos de la distancia Lipschitz cuya definición se da a conti- nuaci ó n o

tri bución de Xn+l (resp. x ). Por 1-1 (resp. pm) n + l .m w 1. n,m

Siguiendo a Janssen L13841, denotaremos por LI (resp. l a dis- denotaremos l a dis-

Definamos , para c&

L i pschi t z como:

i nimos l a correspond iente dis tancia de

son distribuciones

de probabilidad en Rj . Observemos que esta distancia está acotada ya que g , IT^, n 2 , lo están. Además, es natural introducir esta distancia ya que

estamos interesados en 1 a rapidez de 1 a convergencia de X D '3' m+. m

+ xn.

Para simplificar la notación pondremos:

Por ú1 timo, L denotará la constante de Lipschitz para b y u y M una cota superior para o.

Tenemos así el siguiente resul tad0 cuya demostración se encuentra en Janssen [1984]:

32.

Teorema 1. Sean W var iables a leator ias independientes tales j , m

que E 1 Wj - < h 5 1 o Entonces, existe una constante C1 que depende

só l o de L, ta l que para toda r > O:

T d(p,pm) 5 4r-2 exp(clhi) + r(r+l) 5 (y,Fm).

Denotemos por Vh l a d i s t r ibuc ión Gauss iana de media cero y var ian - za h., puesto que la s va r iab les a l eator i a s AWi son independientes y - gaussianas podemos expresar a ji como un producto de medidas unidimensio- nales:

- p = vh + O 0 0 + Vh. Supongamos que s e descompone de 1 a misma m

manera :

- - %,m - - + .. . + En,,,. Obtenemos entonces que:

n d(L, Fm) 5 c d(Vh, pi ,m). Si suponemos además que l a s W. son iden

ticamente distribuidas, entonces 1 as pi ,m son igua les y por l o tanto

- i =O 1 ,m

-

En el contexto del teorema 1, es to s i gn i f i ca que para garanti zar un e r ro r de di scretización del tiempo de tamaño O (h) , necesitamos una - aproximación de V,, de tamaño O(h2), es dec i r , d(Vh, = O(h2).

-

Solo nos hace fa l ta e s t imar l a d i s tanc ia ent re Xt y

XN,m(t):=Xn ,m (t) s i t E [tn,tntl).

E l s igu iente teorema nos proporciona tal estimación.

33.

Teorema 2. Sea t E tn+2 ) . Denotemos por px (res p. t

pX ( t ) ) las dis tr ibuciones de xt(resp. x ( t ) ) . Entonces:

N ,m N ,m

Recordemos que el teorema 1 nos da una estimación de d(p,pm) y

a s í obtenemos una estimación del error que cometemos al aproximar la di - fusión xt por medio del esquema en diferencias (2).

34.

4. Resultados computacionales.

Se implementó un algori tmo computacional para encontrar trayecto- r i a s aproximadas de la difusión x. que s a t i s f a c e l a EDE (1.1). La gene - ración de trayectorias aproximadas del movimiento browniano W. se hizo - con las técnicas que se describen en el capí tulo 3, basadas en caminatas aleatori as ( C A ) y procesos de transporte uniforme (PTU). El método de - integración numérica de Runge-Kutta usado es el desarrollado por E. Fehlberg (1970) e implementado con la ru t ina RKF45 por L,F. Shampine y H. A. Watts (1974) [Forsythe e t ' a l . (1977)].

E l algoritmo se probó para el caso particular en que:

a ( x ) = J x ( 1 - X ) / n

donde S y N son constantes. En e s t e caso se tomaron:

S = 0.1, N = 10

Así pues a 1 a EDE (1.1) se convierte en:

dx = sx ( l - x t ) d t + 4~ (l-xt)/2N t t t dWt; x0 dado

Se recomienda ver el capítulo 5 para una interpretación biológica de ( 2 ) .

En 1 as gráficas i a 3 se muestran algunas de 1 as trayectorias aproximadas de x. que se obtienen con este algoritmo, que Se pwx?nta en e l Apéndice B.

Para cada uno de los cinco puntos iniciales x. = 0.1,0.3, ... ,0.9

se generaron cien trayectori as aproximadas de x. usando PTU, y cien más usando C A , en el intervalo O S t 5 50. En l as g ráf icas 4 a 8 se - muestran los h i stogramas con 1 as frecuencias observadas de las var iables

35.

a lea tor ias x t , para t = 5, 10, 1 5 , 20, 35, 50. Nótese que en todos

los casos obtenemos resultados similares usando PTU o CA,

Estas frecuencias observadas tienen una interpretación bien preci - sa. Son estimadores de las probabilidades de transición P(xt E (a ,b) I xo) , que en conjunto caracterizan completamente al proce- so x.

Con esta herramienta cornputacional también s e pueden estudiar tiem - pos de paro , como por ejemplo:

con :

a = 0.02 y b = 0.98 (3)"

Para cada uno de los nueve puntos i n i c i a l e s x. = 0.1,0.2, ..., 0.9

se generaron cien trayectorias usando PTU, y cien más usando CA, parán- dose el proceso en el tiempo de paro definido en (3) . En 1 a gráfica 9 se muestra l a esperanza estimada de T , como función del punto in ic ia l xo.

En 1 as gráf icas 10 a 12 se muestran los h i stogramas con l a s frecuen - cias observadas de T o Nótese l a s imi l i t ud de los resultados obtenidos usando PTU o CA.

En el capítulo 1 se mostró que l a EDE (1.3.7) está relacionada con la solución del PVF (1.4.7). Así como en nuestro caso particular la EDE (1.3,7) se convirt ió en ( 2 ) por la sust i tución ( l ) , e l PVF (1.4.7) se convierte en:

1 x (1 -x ) d2u - ( x ) + sx(1-x) ay (x) = o du 2 dX2

u(a) = A , u(b) = B

36.

que se puede simplificar:

Fácilmente se puede ver i f icar que su solución está dada por:

donde :

g(x) := exp(-4Nsx) (5)”

Ahora, con T definido como en (3), l a ecuación (1.4.8) nos conec- t a l a EDE (2) con el PVF ( 4 ) :

Comparando ( 5 ) y (6 ) tenemos :

Esta re1 ación es de gran importancia para nosotros, porque nos per mi te verif icar el algoritmo usado para la solución de (2) o Para tal efec- t o podemos recurrir a los estimadores de Px(xT = a ) que nos proporcionan las trayectorias generadas con anterioridad. En 1 a gráfica 13 se mues - tran estos estimadores (con sus respectivos intervalos de confianza al 95%) superpuestos al valor exacto calculado por medio de l a ecuación ( 7 )

-

37.

Nótese que casi todos los intervalos de confianza al 95% para l a estimación de Px(xT = a ) engloban el valor calculado por medio de l a

ecuación ( 7 ) , lo cual nos indica que hemos obtenido u n resul tado sat is- factorio.

. .

G R A F I C A 2

L

i i

41.

U 5 1

0.0 1 6 2

U

PTU t=5

GRAFI CA 4-a

Frecuencias de Xt, para X. = O. 1

0.2 0.4 0 - 6 0.8

PTU t=10

0.0 0.2 0.4 0 . 6 o . 8

6 5

U

o . o

PTU t= 15

'O . 2 0 . 4 0 . 6 O . 8 1 . o

ij

O . I 0 . 0 I 1

o 1 . o

CA t=5

12 31% 0.2 0 . 4 0.6

ü

1

CA t=10

1 o . 2 0 - 4 2 0 . 6 0 . 8 1. o

CA t= 15

"I 1 0

u . 2 0 . 4 0 . 6 0 . 8 1 . 0

42.

6 6

-1 GRAFICA 4-b

Frecuencias de X t , para X. = 0.1

P TU t=20

13.

n 3 3 3 3 4 3

2 l l l l l ” - - o. o 0 . 2 0.4 0 . 6 0 . 8 1 . 0

6 7

PTU t=35

4 4

0 . 0 0.2 0 . 4 0 . 6 0 . 8

u PTU t=50

‘1 1.0

0 . 0 0.2 0.4 0 . 6 0 . 8 1.0

o . o

7 1

CA t=20

O

CA t=35

1 6

o. 2 0.4 0 . 6 0 . 8 1 . o 1 I 1

j 0 . 8 1 . o

o . o

CA t=50

1 1 1 1 1 1 1

o. 2 0.4 0 . 6 0 . 8 I 1.0

43.

PTU t = 5

GRAFIcA 5-a

Frecuencia de X t , para X. = 0.3

0 . 0 0.2 0.4 0 . 6 0 . 8 1 . 0

PTU t=10

CA t = 5

2 0

0 . 0 0 . 2 0 .4 0 . 6 0.8

2 1

n CA t=10

1 5 - 16

12 11 -

10 10- 1 2 1 1 “ 1 0 9 8 9 9 - 4

6 6 6 2

c

- o. o 0.2 0.4 0.6 o . e 1.0 o .o 0.2 0.4 0.6 0.8 1.0

n 3 0

PTU 20 - t=15

6 - 8 -

0 . 0 0 . 2 O . * 0 . 6 0 . 8 l.( 3

n. CA t= 15 n n

11 1 2 1 ._

7 9

- 5 6 -

- Lt - 0.0 0.2 0.4 0.6 0.8 1.0

44.

GRAFICA 5-b

Frecuencias de Xt, para X. = O . 3

3 9

ri PTU t=20

o . o 0 . 2 O . + 0 . 6 0 . 8 1 . o

0 . 0 I ü

2 6

o . o

PTU t=35

0 . 2 0 . 4 O .6 O .8 1 . 0 o . o

2 5 PTU t=50

3 1 ' 5 I 5

0 . 2 O . 4 0 . 6 0.8 I

4 9

CA t= 35

0.2 0.4 O . 6 0 . 8 1 . 0

6 3

CA t=50

1

o . o 0 . 2 0 . 4 0 . 6 0 . 8 1 . 0 0 . 0 0 . 2 0 . 4 0 . 6 0 . 8 1.0

. o

45.

GRAFICA 6-a

Frecuencias de Xt, para X. = 0.5

PTU t=5

1 9

0 . 0 0.2 0 . 4 0.6 0 . 8 1. o

P TU t=10

1 7 i 0 . 0 0.2 0 . 4 0 . 6 0 . 8 1 I

CA t=5

n 20

I 1s

I 0 . 0 0.2 0 . 4 O .6 O . 8 1.0

CA t= 10

i K i , , m 4

2 2

0 . 0 0.2 0 . 4 O . 6 O .8

CA t=15

I 1.0

4 8

U - 1 2

7 5 4

6 6

2 2 I I '

0 . 0 0 . 2 0 . 4 0 . 6 0 . 8 1.0

46.

GRAFI CA 6-b

Frecuencias de X t , para X. = 0.5

PTU t = 2 0

8

o . o 0 . 2 0.4 0 . 6 0 . 8

PTU t = 3 5

0 . 0 0 . 2 O . ' + 0 . 6 0 . 8

PTU t = 5 0

] I 1 . o

c

- 1 . o

4

CA t = 2 0

1 1 . I I 5

1 1

o . o 0 . 2 0.1, 0 . 6 0 . 8

CA t=35

, l , l ,

0 . 0 0 . 2 0.4 0 . 6 0 . 8

CA t=50

1 3

I

47.

GRAFICA 7-a

Frecuencias de Xt, para X. = O. 7

3 5

PTU t=5

- 1 8 1

u. 2 0 . 4 0 . 6 0 . 8

PTU t= 10

r"

o . 2 0 . 4 0 . 6 0 . 8

1 1 . u

PTU t=15

* 2 2 2 3

I l l r - o. 2 0 . 4 0 . 6 0 . 8

t . 1 . u

CA t=5

0 . 2 0 . 4 U . 6 0 . 8

CA t= 10

0 . 0 0 . 2 O . 4 0 . 6 9 . 8

I i

CA t= 15

6 8

48.

PTU t=20

GRAFICA 7-b

Frecuencias de Xt, pa ra X. = 0.7

7 5

3 3 2 2 2

0 . 0 0.2 0 . 4 0 . 6 0 . 8 1 .o

a 7

PTU t=35

CA t=20

f r 0 . 0 0 . 2 0 . 4 0 . 6 0 . 8 1 . O

CA t= 35

0 . 0 0 . 2 0.4 0 . 6 0 . 8 1 - 0 O . O 0 . 2 0 . 4 O . 6 U - 8 1. o

PTU t=50

CA t=50

49.

GRAFICA 8-a

F r e c u e n c i a de Xt, p a r a X. = 0.9

PT U t= 5

P TU t= 10

7 1

Ir

8

3

- 0 . 6 0 . 8 1 . o

8 2

U

9 1

CA t= 5

- 9

U - 6 0 . 8

CA t=10

8 0

P

O - 4 0 . 6 0 . 8 1 . 0

50.

GRAFI CA 8-b

Frecuencia de Xt , para X. = O. 9

P TU t=20

0 . 6 0 . 8

9 7 3 1 . o

9 9

P TU

t=3*

PTU t=50

0 - . 8 1 . o

9 9

1

CA t=20

1 2 1 1 2 t i !

0 . 0 o ,2 o .4 0 . 6 0 . 8

CA t= 35

o . o 0 - 2 0.4 0 . 6 0.8

9 3

c

1 .u

9 7

- 1 . o

CA t= 50

2 i A

o D O 0 . 2 0.4 0 . 6 0 . 8 1 - 0

CA t= 50 N

o D O 0 . 2 0.4 0 . 6 0 . 8 1 - 0

GRAFICA 9

51.

A N - r )

3 0 - ,

2 0 -

1 0 -

o 1 , I I t> a O. 1 0 . 2 0 . 3 0 . 4 0 . 5 0 . 6 0 . 7 0 . 8 0.9

xO

D Ud

. 3 0 -

2 0 -

1 o "

O ' - I I

a 0 . 1 0.2 0 . 3 0.4 0 . 5 0 . 6 0 . 7 0 . 8 o . 9

52.

GRAFICA 10

Frecuencias de T = i n f {t 0:X E f ( a , b ) }

L a X,=b; b=O. 98

O 20 4 0 6 0 7 0

3 9

O 2 0 40 6 0 m

if I t 7 PTU

I I I 1 6

x. = 0.3

CA x* = 0.2

3 1

Ly- . ...... -x= 1 1 o 1 0 3 0 5 0 7 0 8

n

53.

G R A F I CA 11

Frecuencias de T:= i n f {t. > 0:X d ( a , b ) ) - T

m x = 0.02 T

T 1 PTU

u X = 0.98

I L x. = 0.4

n

O 2 0 4 0 6 0 7 O

3 7

o I l l 2 0 4 0 6 0 co

a = 0.02

b = 0.98

,

O 2 0

CA x. = 0.5

3 5

O 2 0 4 0 6 0 7 0

54.

G R A F I C A 12

Frecuencias de T : = inf{t - > O: X T L(a,b))

m x = a; a=0.02

0 X = b; b=0.98

P TU X. = 0.7

O 2 0 6 0 7 0

PTU x. = 0.8

3 2

8 4

P TU x. = 0.9

U

O 2 0 4 0 6 0 7 0

5 2

CA X. = 0.7

7

1%

O 2 0 40 6 0

O i 2

86

CA X. = 0.8

& 3 0 5 0

CA x. = 0.9

7

O 2 0 ‘10

55.

GRAFICA 13

Px(XT= a ) ; a = 0.02, b = 0.98

PTU

a 0.1 0 . 2 0 . 3 0 . 4 0.5 0 . 6 0 6 7 0 . 8 O 1 9 b X

CA

C A P I T U L O I11

3. l . Introducción

En el capítulo anterior se resolvió la E D E .

dxt = b ( x t ) d t + (x,) dW ; x. dado (1)

u t i 1 izando un método numérico, y fue necesario uti 1 izar t rayector ias de movimiento browniano (b1B). En este capítulo veremos l a simulación de es tas trayectori as.

-

Según ya señal amos en la sección 1.2, casi todas 1 as trayectorias W(u) de MB son continuas pero no diferenciables. [Loeve,M.(1977)]. Esto quiere decir que para todo instante t > O , al observar el comportami ento de cada trayectoria W( 0 ) en cual quier vecindad ( t - E , t + E ) de t , dicha - trayectoria es bastante irregular. A s í pues, si pensamos simular trayec- to r ias de MI3 tendremos que recur r i r a alguna familia de procesos es t o - cásticos que se aproxime al MB y sea tal que sus elementos (procesos) tengan trayectorias que puedan generarse fácilmente.

Si vamos a simular trayectorias de MB a través de otro proceso, es necesario saber qué propiedades se deben sa t i s facer ;

Estas propiedades son las que caracterizan al M6 de acuerdo a l a siguiente

DEFINICION 1.

E l proceso estocástico W = { N (u) ; t > O , u E a} es u n MB s i sat isface:

a ) W t iene incrementos independientes; e s to e s , s i n es cualquier entero positivo y s i O = t < tl < . .. < tn < m, entonces los n incre-

rnentos O

5 7 .

{V(t .) - W(tj-l), 1 < j < n } J

son variables aleatorias independientes.

b ) La distribución de W(t) - W(s) e s normal con media cero varian - za ( t -s)a2, donde O < S < t <a y no depende ni de S n i de t.

c ) PtW ( O ) = O ) = 1

En las siguientes dos secciones haremos ver que podemos aproximar- nos al MB a través de caminatas a leator ias y también a través de Proce- sos de Transporte Uniforme.

3.2 Aproximación de movimiento browniano mediante caminatas aleatori as

Construiremos u n proceso senci l lo cuyas trayectorias sean fáciles de calcular y que se aproxime a un MB. Tal proceso será una caminata a leator ia .

Sea el proceso { X t I t - > O } t a l que X. = O y que a incrementos de

tiempo T t iene sal tos independientes, dados por una variable aleatoria Bernoulli Z. Este proceso X es ta rá dado por:

donde Zo = O

y Z1, Z 2 , ... son copias independientes de Z , cuya distribución está da -

da por:

58.

A l proceso anterior {Xt I t > O ) s e l e conoce como caminata aleato-

r i a (CA)

Nos interesa ver bajo que condiciones el proceso X anter ior con- verge a un MB, para l o cual hay que trabajar con 1 a d i s t r ibuc ión de Xt.

Cada sal to Z es una v.a. con l a d i s t r i b u c i ó n dada en (Z ) , a s í

que su funcidn generatr iz de momentos (fgm) es:

mz(0) = E(eez) = peeh + qe -0 h

En el instante t se habrán dado n = [t/TI s a l t o s , a s í que e l - desplazamiento total será:

n

i =1 Xt = c zi

y como Z1, Z2,. . .Z son va. i .e.d. tendremos que l a fgm. de Xt será: n

De l a fgm. m ( O ) podemos obtener los dos primeros monentos de Xt: Xt

V(Xt) = m" (O) - (m;( ( O ) ) 2 = 4npqh2 x+ + L L

Nos interesa que cuando T -t O y h -+ O, 1 a CA Xt t ienda a un MB. Esta exigencia, en términos de los dos primeros momentos, tanto de l a CA como del MB se traducen en :

E(Xt) + O, V(Xt) -t to2 cuando T + O y h + O

59.

ya que un MB tiene media cero y varianza to2. Si además tomamos n = [ t / T j ,entonces debe tenerse que:

y cuando T -+ O y h + O

Se tiene el primer límite si tomamos p = q = 1/2, ya que a s í E ( X t ) = O y V(Xt) = ( t / T ) h 2

de aquí que s i T y h tienden a cero de tal forma que h 2 / T = o2 enton- ces V ( X t ) = to2 . Por l o tanto, el proceso Xt dado por:

ct 1.1 Xt = c zi

i =O

coincide en los dos primeros momentos con un MB.

Otra coincidencia del proceso definido por (3) con un MB Xt

radica en que es un proceso de incrementos independientes.

En efecto, para instantes cualesquiera tl< . .. < tn los incremen- tos X( t l ) , X( tpl - X ( t l ) ’ . . .w n ) - X(tn-l)

son sumas parciales de diferentes Zi ‘ S , y como estas son Z independien -

tes , entonces también lo son los incrementos del proceso Xt definido

por (3).

Hasta ahora s6lo f a l t a ver que e l l ímite de Xt cuando T -+ O , ten - g a una distribución Normal , esto es :

60.

D -f N(0,a2t) cuando r + O Xt

En efecto , como podemos probar, 1 a fgrn. de Xt converge hacia

la fgm de l a distribución N(0,r2t), ya que s i n = t/.c entonces h = c~fi

V

cuando T + O , donde Y - N(0,a2t).

La convergencia anterior no es mas que el teorema central del 1 í- mi t e , con lo que hemos probado que el proceso Xt converge en distr i bu- ción a u n MB, con varianza 02t.

La confianza de que las trayectorias de CA se aproximan a trayec - torias de MB no descansa únicamente en l a convergencia en distribución que hemos visto, s ino además en el hecho, demostrado por [Knight, F.(1981)1 de que:

Con probabilidad 1 , l a sucesión de CA converge uniformemente a MB .

3.3. Simulación de movimiento browniano por caminatas aleatori as

Si nos interesa muestrear una trayectoria de MB simulado por CA a intervalos de tiempo constantes DT, solamente habrá que generar una trayectoria con punto de partida en cero y ver que valor toma esta en los instantes DT, Z D T , 3DT, ... . De acuer% con la sección 2, los saltos de l a caminata deberán s e r de u n valor A"pequeño", comparado con el in- tervalo de muestre0 DT, lo cual es equivalente a que l a caminata tenga un número n "grande" de sal tos en el intervalo de tiempo DT, donde n = [DT/A~. Diremos que 1 a CA generada es MB, cuando satisfaga las pro piedades ( a ) , ( b j y (c) de la definicidn 1.1. Ahora bien las propiedades

61.

(a) y (c) se cumplen siempre, ya que l a caminata generada se i.nicia en ce ro y además los saltos de ésta son independientes. Asi que solamente habrá que ver para que valor de n se cumple ( b ) , e s t o e s , para que valor de n , los incrementos

x n , xpn - x n , X3n - xpn 9

%on I' norma 1 es.

Podemos obtener una cota in ic ia l de n utilizando el siguiente teorema de Berry- Esséen [Fe1 1 e r , W. (1968)l:

TEOREMA 1.

Sean Z va. independ que :

ientes, con una distr ibución común F t a l

Sea Fn 1 a distribución de 1 a suma normal i zada

(Z1 + z2 + . . . . zn)/ufi

Entonces , para toda n :

donde rl es la distribución normal estándar.

En nuestro caso, 1 as variables Z son ta les que

p{z , = +h) = P{Z, = -hl = 1f2 , por lo cual

62.

E(Zi) = h2(1/2) + h2(1/2) = h 2 = .a2

E( I Z K I 3 ) = h 3 ( l / 2 ) + h 3 ( l / 2 ) = h3 = p

Por o t r o lado, a los incrementos x j - xj-l = z1 + z2 + . .. + 'n

l e s corresponde l a función de distribución F n , as í que s i estamos dispues -

tos a to lerar una distancia d entre l a función de distribución empírica Fn y la normal estandar,entonces

(3p)/(a3fi) < d.

De aquí tenemos que e l nGmero de sal tos de l a caminata en cada in- cremento del MB simulado deberá ser :

n > ( 3 p / c ~ ~ d ) ~ = (3/d)2

En la siguiente tabla tenemos los valores de n correspondientes a diferentes valores de d:

d 0.2 O . 15 o. 10 0.05 0.01

n 225 40 O 900 3600 90000

Debido a l a general i d a d del teorema anterior, e l valor obtenido de n resulta innecesariamente grande. Por e l l o , para ver que valor de n es suficientemente grande seguiremos un cr i ter io es tadíst ico que se mencio - na a continuación.

Para u n valor de n dado, se simularon N trayectorias de MB

con M intervalos de muestre0 de n s-a1 tos de l a CA por intervalo, obte -

63.

niendo as? N trayectortas

{M(j,K), j = 1,2 ,... ,M) K = 1 , Z ¶.. .¶N.

Luego se formaron M muestras de tamaño N con los incrementos

{ I(j¶I<): = W(j,K) - W(j-.l,KJ; j=1, ... ,N) y k=l, ..., M

y para cada muestra se probó l a hipstesis nula:

Ho:La muestra { I(j,K); k=l,. .. ,N) proviene de una distribución N(0,DT) contra la hipótesis alternativa:

Hi :Ho es falsa.

La hipótesis de normal idad se probó uti 1 izando 1 as siguientes prue - bas [Seber, G.A.F. (1984)j :

l. Prueba de D' Agosti no 2. Prueba de sesgo de D' Agostino-Pearson 3. Prueba de Kurtosis

Se efectuaron las pruebas para 100 muestras y se registró 1 a propor - ción de rechazos obtenida, 1 a cual se presenta en la tabl a 2 para las 3

' pruebas en el orden correspondiente

-~ ~

.n 10 20 25 30 35 40 45 50 55 60 """""""""""""" """"""""~"""-"--"--"-"------"- """"""""""""""""""""""""""""""""""""" P1 ( n > .43 .20 .13 .o9 .12 .O8 .O3 .O4 .o2 .o9 P2 ( n ) .29 .I9 .16 .O7 .14 .11 .O6 .O6 .o2 .o7

P3 ( n ) .35 .13 15 .O6 .16 .O4 . O4 .O3 04 .o6 """"""""""""."""""""""""""""""""""""""

TABLA #2

En l a tabl a 2 vemos que para u n número n > 40 1 as proporciones

64.

empiezan a osc i lar alrededor de,

Del resultado de las pruebas efectuadas, tenemos que podemos simu - 1 a r MB con CA tomando n > 40 sal tos de l a caminata por cada inter- val o de muestre0 de 1 a trayectoria del MB.

Para l a simulación del MB se u t i l i z ó l a subr1.rtina CAMINA, que ge - nera incrementos independientes de MB para valores deseados de los pará - metros, t a l y como se describe en e l apéndice A .

3.4. Generación de movimiento browniano mediante procesos de trans porte u n i forme

Otra forma de construir un proceso de MB es tomando el 1 ímite de una sucesión de Procesos de Transporte Uniforme (PTU).

Para u n entero positivo n , sea el proceso estocástico v ( t ; n ) una Cadena de Markoff a : Tiempo Continuo (CMTC), con espacio de estados E = i - n , + n ) y generador infinitesimal :

A partir de v ( t , n ) obtenemos e l proceso integrado

W ( t , n ) =I v(t,n)ds 't

O

que se conoce como PTU.

En el capítulo 4 pueden encontrarse mayores detalles acerca de los conceptos recién mencionados.

La jus-t i f icación de esta construcción de MB, está dada en e l s i - guiente teorema, demostrado en:

[Griego et al (1971)l:

TEOREMA 1.

65.

Sea {v(t,n)) una sucesión de CMTC, con po = (l/Z,l/Z), donde para

cada entero positivo n se t iene el generador infinitesimal An def inido

anteriormente.

Constrúyase la sucesión de PTUs {W(t,n)>:

t

O W(t,n) =S v(t,n)ds, W(0,n) = O para n=1,2 ,...

Entonces e’l PTU converge uniformemente a MB cas i seguramente, es de-

c i r:

P t l i m max IW(t,n) - w ( t ) l = o } = 1 n- O<t<T

INTERPRETACION DE LOS PTU.

Para cada entero positivo n, l a CMTC. v(t,n) es un proceso que t o - ma los va lo res -n y tn alternativamente, Inicialmente el proceso toma

ambos valores con igual probabilidad (l/Z), pero posteriormente va cambian

do de estados en los instantes a leator ios T1, T2, T3, ... De acuerdo con

el s iguiente teorema que ha s ido demostrado por Doob,J.L. (1953)], e l - tiempo de s a l i d a de cada estado tiene una distribución exponenci al con pa - rámetro n.

TEOREMA 2.

Sea A = . ) el generador inf in ites imal de l a CMTC v(t,n) y (ai ,J supongamos que

66.

para i = l , 2 , . p . ,N .

Dado v ( O ) , defini,mos el tiempo de sal ida como

T = in f {t > 0 I v ( t ) + i} Entonces :

P{T > t I v ( 0 ) = i l = 4 1 , i = l , 2 , 0 . . , N -x. t

En nuestro caso, tenemos sólo 2 estados (N=2), donde

x1 = x2 = n 2

as í que el tiempo de salida de cualquiera de los dos estados se distribu- ye según:

P{Ti - T i - l > t I v ( T i e l ) = 2 n } = e - n 2 t para i = 1 , 2 , ... El teorema 1 nos asegura 1 a aproximación de 1 as trayectorias del

PTU a una de las del MB, mientras que el teorema 2 nos dice cómo generar 1 os intervalos de tiempo en que el PTU se mantiene con velocidad consta; t e al ternante +n, para u n val o r dado de n .

En cuanto a 1 a rapidez de convergencia de los PTU. W hacia el MB W; [Vazquez Abad, F. (1984)], probó las hipótesis de independencia y norma- lidad de incrementos de MB simulado por PTU, utilizando la prueba j i cuadrada y encontró que tales hipótesis dejaban de rechazarse para valores de n ta les que

n > L-1 donde DT = longitud de intervalo de muestre0 de la t rayector ia .

67.

Debi'do a este resultado, podemos generar MB mediante PTU u t i l i zando un valor de n que sa t i s f aga l a desi'gualdad anterior.

3.5 Verificación posterior

Como se vió en el capítulo anterior, a cada trayectoria de MB simulado l e corresponderá una trayectoria solución de l a EDE ( l . l ) , l a cual tendrá barreras absorbentes en

x = o y X = l

De acuerdo con lo an te r ior , nos interesa que e l MB simulah ten - ga u n buen comportamiento en cuanto al alcance de barreras absorbmtes, para que no vaya a introducir u n sesgo en la trayectoria solución de (1.1).

Consideraydo un intervalo a,b , si el punto de partida del MB es x (con a < x < b ) , como se vió en el ejemplo 1.1.1, l a probabilidad de absorción de las trayectorias por 1 a barrera X = a es:

P(x,a) = (b-x)/(b-a)

y por 1 a barrera X = b es:

P(x ,b) = (x -a)/(b-a)

Entonces, para probar el buen comportamiento de las t rayector ias de M6 en cuanto a la absorción por las barreras X = O y X = 1 , bas- t a r á con probar que las proporciones de trayectorias que son absorbidas por ambas barreras, satisfacen (1 ).

En este caso hay que probar la hipótesis nula:

Ho : P(x , l ) = x

68.

contra la hipótesis al ternati.ya

Hi:P(x,l) + x

Como l a suma de absorciones por X = l , se distribuye binomialmente con parámetros N y x , entonces por l a aproximaci6n binomial a 1 a normal, tenemos que cuando N ti'ende a i n f i n i t o , l a proporción de absorciones - por X = l , tiene una distribución asintdtica normal , con media x y va - r i anza x(1-x)/N. De esta forma, para N grande , l a región de no recha- zo de l a prueba de la hipótesis Ho anterior, con un nivel de significan - ci a a = O. 5 será [ LINF, LSUP) , donde :

LINF = X .. 1.964-

LSUP = x + 1.964'

El programa ESTO/ESlADISTICAS/Z que se presenta en e l APENDICE A , obtiene l a proporción de trayectorias que se absorben por cada barrera, a s í como los límites de la r e g i ó n de no rechazo, l o cual permite efectuar l a prueba para valores deseados de b-a y N.

69.

RESULTADOS DE LA PRUEBA, GENERACION MEDIANTF C4

romando en cuenta que, como ya hemos v i s to , para 1 as trayectorias de MB simuladas medi.ante CA se requiere que e l nümero de sa l tos de l a caminata por cada intervalo de muestreo , sea mayor que 40, se corri 6 el - programa ESlO/ESTADISTICAS/2 para N=100, a=O, b = l , y con nueve condi c io - nes in i c i a l e s , X = O . l , 0.2, . .. ,0.9.

Considerando 50 sa l to s de l a CA por cada intervalo de muestreo del MB, se encontró en todos los casos, que la hipótesis Ho no fue re- chazada.

Esto se debe a que al simular trayectorias de MB mediante C A , se sat isface la hipótesis Ho, debido a que e s t a hipatesis también es sa- , i d ,"echa por las C A B +"..

GENERACION MEDIANTE PTU

Para probar la h ipótes i s Ho, mencionada anteri.ormente, se corr ió el programa ESTO/ESIADISTICAS/2, seleccionando l a generación de MB me- diante PTU, dando On incremento de muestreo DT=0.001 y eligiendo un va - l o r igual a 75 para el parámetro velocidad, ya que según [Vazquez-Abad (OP. ci t 11 3

vel = [~W€I] = [ A m ] = [EZ?RJ'J = 75

Se encontró también en este caso, que para l a s 10 salidas elegidas de las t rayector ias (0.1,0.2, ..., 0.91, l a h ipótes i s Ho no fue rechazada.

De aquí se concluye que e l MB generado t isface las condiciones dadas en (1 1

. A continuación se presenta el l i s t ado de

en estas pruebas, tanto para la simulación por

por CA y por PTU, sa-

10s resultados obtenidos CA como por PTU.

70.

CONTEO DE SALLDAS POR BARRERAS SUP. E LNF, XO(1) : DIST. DE LA BARRERA SUP. AL PUNTO DE PARTIDA

PRI(1): PROP. DE SALIDAS POR LA BARRERA 1.NFERIOR PRS(1): PROP. DE SALLDAS POR LA BARRERA SUPERIOR

MB. SIMULADO POR: CA.

NUM. DE TRAYECTORIAS: 100 INTERVALO DE MUESTREO: 0.00190 VELOCIDAD: 50 NUM. DE BARRERAS SIMETRICAS EN CERO: 1 0

DISTANCIA ENTRE BARRERAS: 1.00 I XO(1) PRS(1) LINF(1) LSUPCI:]

1 0.10 2 0.20

3 0.30

4 0.40 5 0.50 6 0.60

7 0.70

8 0.80 9 0.90

O. 080 O. 180

O. 280

O. 440 O. 579 O. 650

O. 700

O. 810 O. 920

0.0412 O. 1216

o. 2102 O. 3040

O. 4020 O. 5040 O. 6102

O. 7216 O. 8412

O. 1588 O. 2784

O. 3898

O. 4960 O. 5980 O .6960

O. 7898 O. 8784 O. 9588

#ET = 7:27.7 PT = 2:54.5 I O = 0.1

CONTEO DE SALIDAS POR BARRERAS SUP. E LNF. XO(1) : DIST. DE LA BARRERA SUP. AL PUNTO DE PARTIDA PR I ( I ) : PROP. DE SAL IDAS POR LA BARRERA LNFERLOR PRS(1): PROP. DE SALI.DAS POR LA BARRERA SUPERIOR

MB. SIMULADO POR: PTU. NUM. DE TRAYECTORIAS: 100 INTERVALO DE MUESTREO: 0.00100 VELOCIDAD: 75

71.

NUM. DE BARRERAS SU4ETRI:CAS EN CERO: 10 DISTANCIA ENTRE BARRERAS: 1,OG. I XO( 11 PRS(I] LINF(I1 LSUPCI)

1 0.10 0.150 0.0412 0.1588 2 0.20 0.270 0.1216 0.2784 3 0.30 0.340 0,2102 0.3898 4 0.40 0.430 0.3040 0.4960 5 0.50 0.520 0.4020 0.5980 6 0.60 0.660 0.5040 0.6960 7 0.70 0.730 0.6102 0.7898 8 0.80 0.820 0,7216 0.8784 9 0.90 0.920 0.8412 0.9588

#ET = 2:23.2 PT = 1:Ol.g IO = 0.1

C A P I T U L O I v 1. Introducción.

En los capí tulos anter iores se ha presentado un método especifico que permite simular numéricamente la solución de ecuaciones diferenciales estocásticas haciendo uso de aproximaciones al proceso de Wiener basadas en caminatas a lea tor ias y procesos de transporte uniforme. En el presente capítulo se reseñará un enfoque al ternat ivo encaminado también a l a simu- lación de procesos de difusión pero que, a diferencia del anter ior , hace uso de cadenas de Markoff y de la discret ización de l a coordenada espacial , no l a temporal , para lograr este ob je t ivo . Para la presentación de este método nos basaremos fundamentalmente en I D i Masi & Runggaldier,(l981) I , referencia a l a que remitimos al lector interesado para un tratamiento mas detallado y extenso de lo que aquí se expone.

Considérese entonces l a ecuación diferencial estocástica en el sentido de I to

dxt = b(xt)dt + o(xt)dw x ( t ) = x

O O donde

b, o: [O, TI X Rn -> R n

son uniformemente Lipschitz y acotadas, w es un proceso Wiener estandar adaptado a l a f i l t r ac ión u sobre un espacio de probabilidad (Q,u,P).

La idea que subyace en el método que se presenta consiste en 1 a discretización de l a coordenada espacial de (1). Se obtiene así x , una Cadena de Markoff a Tiempo Continua (CMTC) con l a propiedad de que, al tender a cero l a norma de la d i scre t izac ión , se genera una sucesión de CMTC convergente al proceso de difusión solución de (1).

73.

Antes de proceder directamente a l a presentación de este enfoque se considera conveniente dar en ests sección algunos resultados previos que serán utilizados a lo largo del capítulo.

Sea entonces X := {Xt: t&TI una CMTC con T = [ O , l ) , E = { l , Z , . . . ,NI y = Z8, donde E es el espacio de estados con N E W y 8 es la algebra sobre l a que esta definida l a medida de probabilidad P. Las probabilidades de transición de l a CMTC X están dadas por:

P i j ( t ) = P ( X = j: X = i )

P . . ( O ) = "j 1J

que satisfacen como se sabe I Doob, 19531 :

( i ) min P . . ( t ) > O i 13 "N

( i i ) 1 Pi j ( t ) = 1 j=l

En consecuencia, l a matriz

P(t) := (Pij)

es una matriz estocástica con P(0) = I

( i i i ) P . . ( t + s ) = 1J

l a ecuación ( i i i ) , llamada notación matri c i al como

P ( t + S ) = P(s)P(t)

En consecuencia l a grupo es tocás t i co asociado

N

k=O 1 Pik(s)Pkj ( t ) t , s > o

i , j = 1 , ..., N

de Chapman Kolmogoroff puede reescribi rse en

familia P := { P ( t ) , t 2 0) constituye un semi- a la CMTC.

74.

El teorema siguiente asegura que el semigrupo correspondiente a una CMTC -en general a cualquier proceso de Markoff-, la caracteriza en el sentido explicitado en el Teorema, hecho que permitirá, posteriormen- t e , j u s t i f i c a r e l método de aproximación que aquí presentamos. Sea P el vector P(X = i ) , i = l , Z , ... ,N llamado la distribución inicial de X.

TEOREMA (Kurtz, 1981)

Sea X. un proceso de Markoff con espacio de estados E y distribu- ción inicial P. Sea P.:= P ( t ) el semigrupo correspondiente a X. .Entonces P. y P determinan las distribuciones de dimensión f i n i t a de X.

Además s i suponemos que I? es diferenciable en t = O , puede demos- trarse que P. es diferenciable para todo t - > O y , en consecuencia si defi- nimos A:= P(0)

b = AP

P = PA

P(0) = I

P(0) = I

y entonces

P(t) = exp (At)

La matriz A se l lana el generador infinitesimal del semigrupo, pues lo determina univocamente.

Sea ahora A:= (a . .). Se satisfacen entonces las siguientes condi- 1J

ciones:

min ai > O i = ly...yN j # i

N .. 1 ai j = 0 j= 1

75 .

Ahora bien, sabiendo ya que los semigrupos estocásticos determi- nan sus procesos de Markoff, es un hecho conocido I Hernandez, 19851 que s i construimos una sucesión de procesos de Markoff x que aproximen a o t r o , entonces

s i Ail -> A adecuadamente.

donde A y AN son los operadores infinitesimales respectivos de x y x . El sentido en que AN -> A puede precisarse de la s iguiente manera. Sean T y rN operadores lineales de D(A) en D(AN) los dominios respectivos de A y AN.

N

Entonces debe ocurr i r que

cuando N -> O0 con

Se entiende también, en el contexto de los procesos de Markoff, que l a condición de convergencia de los semigrupos respectivos significa que .

PN -> P s i

uniformemente para t l 0 ,T I y con + medible y acotada sobre E. Reescri- biendo (4) dicha 1 a condición de convergencia se convierte en

76.

para I) ~ C 1 5 1 1 dada por +(w) = $ ( w ( t ) ) IKurtz, 1981; Hernández, 19851.

En la siguiente sección se aplicarán los resultados anteriores para el establecimiento del método de aproximación.

2. Método de d i rcretización. -

E l problema que nos ocupará de aquí en adel ante es el de hallar generadores infini tesimales que sean "buenas aproximaciones" del genera- dor infinitesimal del proceso de difusión solución de ( 1 ) y que garanti- cen l a convergencia en el sentido de ( 5 ) .

Con este fin en mente considérese que b y u son ta les que pasa cada condición in ic ia l x , ex i s te una solución única de (1) .

Sea E el espacio de estados definido previamente y tómese n = 1 puesto que se trabajará solamente en una dimensión por comodidad.

Sea h = T/N

Definase l a matriz A := como sigue h

A h = o i j

donde

77 .

es facil ver que

luego l a matriz

sat is face (3) de tal forma que constituye el generador infinitesimal del semigrupo de una CMTC {xt: O < t < TI con espacio de estados E = {1 ,2 , . .. , N ) que sat is face

h "

P(x ( O ) = x 1 = 1 h O

Dado que AN cumple con ( 6 ) en particular ocurre que

Ahora bién, hasta aquí hemos obtenido en general una posible aproximación para l a solución de (1) que, sin embargo, no toma en cuenta l a necesidad práctica de traba jar en regiones acotadas. Esto obliga a to- mar en cuenta los tiempos de primera salida de l a región y el proceso parado asociado que definimos de 1 a forma siguiente:

Sea CCR abierto y acotado y sea Ch:= C n E. Entonces definimos el instante de primera salida de C mediante

78.

T x t s C

inf{t: ts para x.

s i t s l O , T I í T x t ~ C h t E

l 0 , T I xttC1 s i no Th = [ i n f ( t : ; E / O , T

para x .

Definimos los correspondientes procesos parados mediante

A

Xt - Xt A T .. -

Habiendonos restringido a una región acotada de R debemos especi- f i c a r l a s condiciones que debe s a t i s f a c e r l a CMTC en la f rontera de l a región, definida por

Es claro también que el espacio de estados de 2 , es C U 3C . h h

En lo que sigue consideraremos e l caso en el que tanto el estado inic ia l como el final de 1 a CMTC aproximada son absorbentes

Debe decirse, sin embargo, que esta elección es arbitraria y pu- ramente i lustrativa. Dependiendo de l a situación específica a modelar, l as condiciones a la frontera cambiarán. En particular en esta monografía se analizará el caso de un proceso de difusión proveniente de la genética de poblaciones en el que se consideran estados absorbentes tanto el esta- do final como el in ic ia l .

3. Ccnvergencia del método.

Para lo que sigue nos basaremos fundamentalmente en el desarrollo que hacen I Di Masi & Runggaldier (1981) I bajo las condiciones (8) y deja-

79.

remos para la sección última de esta monografía l a discusión de los resul- tados computacionales obtenidos.

Se da a ccntinuación una demostración de l a convergencia de una sucesión de CMTC a l a solución de ( 1 ) . Para tal efecto denótese por D l 0 , T I al espacio de funciones que toman valores en Rn sobre l0 ,TI , con- tinuas por 1 a derecha, continuas por l a izquierda en T y con 1 ímites iz- quierdos equipado con l a métrica de Skorojod con el objeto de que D n l O , T I resulte separable y completo.

n

Debido a que dar un proceso estocástico sobre un espacio probabi- 1 i s t i co , equivale a proporcionar una p-robabi 1 idad sobre el espacio de 1 as trayectorias del mismo, una sucesión de CMTC genera una sucesión {PN} de probabilidades sobre el espacio de 1 as trayectorias de 1 a cadena , d i - gamos (Q,a); en consecuencia, s i deseamos que PN -> P cuando N -> 00

debe ocurrir que

1 im /$ dPN = /$dP N- Q S1

para todo $eClQl

I Di Masi & Runggal d i e r , op. c i t . 1 demuestran que las cadenas generadas según el algoritmo dado en l a sección 2 convergen debilmente a la solu- ción de (1) . Este tipo de convergencia basta puesto que estamos interesa- dos solamente a l a convergencia de funcionales de las trayectorias del proceso estocástico considerado.

Considérese ahora una familia {x 1 de CMTC que aproximan l a d i f u - h

sión original x. Para cada h > O , definamos x por h

xh = x + Bh( t ) + l h ( t ) O

con

80.

Bh(t ) = Jt O b(x!)ds

Los autores citados demuestran que las sucesiones B ( t ) y 1 ( t ) poseen subsucesiones convergentes respectivas, basándose en el hecho de que la existencia de estas subsucesiones es equivalente a la t i rantez (en inglés tightness) de l a sucesión original . Mas concretamente s e t i e - ne que

h h

se sat is face para (9b) y (9c) para c , g , K PO s i t ivos y co Insta mtes. Esta condición garantiza la t irantez, luego, existen subsucesiones convergen- tes IBil l ingsley, op. c i t . I .

El problema que resta es el de l a demostración de la ex i s tenc ia de un Gnico l imite para las subsucesiones que resyl ta ser x . , l a solución de (1).

La idea consiste en demostrar que e l proceso l ímite está dado por

donde w^ es un proceso estandar de Wiener adecuado (no necesariamente el original en (1) . Nótese que se ha relajado un tanto el concepto de solu- ción de (1) ) .

En realidad l o que se t ra ta es de ha1 l a r e l adecuado para que x converja a x. y , por lo tanto , debe demostrarse que B ( t ) -> B ( t ) . h h

81.

No nos detendremos a comentar los detalles técnicos de esta par te de l a demostración ya que, por su naturaleza, pensamos que el lector inte- resado debe remit i rse a l ar t ículo or iginal .

Se tiene entonces demostrada 1 a corivergenci a débil de 1 a CMTC a l a solución de (1). Para el proceso parado ct ocurre exactamente l o mis- mo, es decir , xt convcrgc a xt. Debe recordarse que e s t e proceso parado es el que se usará para l a implementaci6n práctica del nétodo propuesto , cuya mecánica es como sigue:

Ah A

i ) Se obtiene la matriz A := ( X . .) de orden n x n que se i n - h h h h 1 SJ

crernenta al disminuir el psso de discretización h . Sea ahora

el instante en que se dá el primer s a l t o en l a CMTC x.

Por el teorema 2 del capítulo 3 tenemos que

don de

h h hi:= xi ,i+l + Xi

Más aún, los instantes en que se dan los saltos sucesivos forman una sucesión monótona creciente

donde

i = 1, 2, 3, ...

82.

Así pues, basta saber generar variables exponenciales con pará- metros X , . . . ¶ X,,, para que podamos generar las CMTC respectivas ¶ cuando menos en lo que se ref iere a los instantes en que se cambia de estado. En cuanto a l a magnitud de los sal tos, hay que muestrear 1 a distribución dada por l a i-ésima hi lera de P ( t ) para obtener XT cuando X = i ; s i X = j , entonces se mantiene constante l a t r a y e c d r i a en j hasta el ins- t a k e T_ = T, + o , donde

1

O

T

L I

P(a > t : X = j) O

En ese instante

= exp( -x .t) J

se cambia al nuevo estado digamos R, etc.

Así pues , hay que conocer l a función matricial P(t) para lo cual prescribimos

i i ) P h ( t ) = Ah(t)Ph(t )

P ( O ) = I h

y P (t) es l a matriz de t r a n s i c i h de una Cadena de Markoff que aproxi- ma x. cuando h es suficientemente pequeña.

h

El problema práctico que se presenta para l a implementación del método radica en l a solución numérica de las ecuaciones del paso i i ) . Da- do que estamos discretizando un operador de difusión con espectro conti- nuo e infinito, los valores propios que se obtienen para i i ) difieren en valor absoluto grandemente, lo que l o convierte en un sistema de ecuacio- nes diferenciales r í g i d o .

Aunada a esta dificultad se encuentra otra que es I a relativa a l a determinación del tamaño adecuado de h , e l paso de discretización que asegure l a convergencia de x a x. h

C A P I T U L O V

1. Factores reguladores .de 1 a variabi 1 i d a d gerléti ca.

En es te capí tulo se proporciona al lector la justif icación bioló- gica del modelo par t icular del que se ha hecho uso en los capítulos an- t e r io re s para i lus t ra r l as t écn icas de simulación analizadas para EDE. Se comparan también los resultados numéricos obtenidos aquí con los resulta- dos teóricos publicados, cuando esto es posible. Cabe, sin embargo, hacer l a aclaración de aue el objetivo de lo que sigue a continuación no es e l de presentar como nuevos resultados ya conocidos desde hace tiempo sino, por e1 contrario, unicamente el de i l u s t r a r l a bondad de las técnicas de simulación para EDE que se han mostrado en capítulos anteriores. Hecha es- t a aclaración procedemos al planteamiento de nuestro modelo.

PL;ede decirse que existen tres grupos de factores que cambian 1 as frecuencias génicas en las poblaciones de especies biológicas ICrow & Kimura, 1970 I .

E l primero de estos comprende l a s llamadas presiones evolutivas sistemáticas en las que están incluidas las tasas constantes de mutación y migración y la selección natural de intensidad constante.

E l segundo de los grupos consiste de los factores que producen fluctuaciones aleatorias y que pueden dividirse a su vez, en dos t ipos

a ) el llamado muestre0 aleator io de gametos en poblaciones f i - ni tas o deriva Sgnica.

b ) las f luctuaciones aleatorias en las presiones sistemáticas, por ejemplo, en el coeficiente selectivo.

84.

Finalmente tenemos a l grupo en el que se encuentran incluidos los rearregl os cromosómicos , dupl i caciones o def i ciencias de nucl eóti dos , po- l ip lodía , e tc .

E l modelo que estudiaremos en esta sección se centra en el segun- do grupo de factores, particularmente los incluidos en el inciso a).

E l problema que el modelo puede ayudar a resolver es el de prede- c i r l a cantidad de polimorfismo y heterocidad que es mantenida en una po- blación de tamaño f i n i t o debida a l a acción conjunta de la selección natu- ral y l a deriva génica.

Antes de proceder directamente al estudio del modelo, nos deten- dremos a comentar y proporcionar los conceptos y definiciones básicas de las que haremos uso. Los lectores para los cuales n G sea necesario esta introducción, pueden pasar directamente a l a siguiente sección que es i n - dependiente de ésta .

Se entenderá población er: este capítulo, como un grupo de i n d i v i - duos en los que es posible el entrecruzamiento y que coexisten en tiempo y espacio. Esta definición es sufScientemente operativa para los usos que aquí l e daremos y no pretende comprender en el 1 a todas las posibles acep- ciones del término.

Así mismo, se supondrá que existen dos sexos y que l a población está consti tuida de individuos sexualmente maduros que se aparean aleato- riamente i . e . : es un grupo en el cual l a probabilidad de apareamiento en- t r e individuos de genotipos particulares o fenotipos es igual al producto de sus frecuencias individuales en l a población. Este tipo de poblaciones se conoce también con el nombre de panmícticas.

Ahora bien, ya que nuestro interés es el de descr ibir la población en términos genéticos, debe examinarse la naturaleza genética de los ca- racteres fonotípicos bajo las restricciones determinadas por l a definición

85.

de población que se ha tomado aquí.

Considérese ent,onces e l caso de ccn locus autosómico con dos alelos A y a. El número de individuos de cualesquiera de los tres genotipos posi- bles AA, Aa y aa se corresponde con el nümero de individuos de las clases fenotípicas posibles cuando no exis te dominancia por parte de ninguno de los alelos. S i denotamos por n , n los individuos con genotipos A A , Aa y aa respectivamente ta les que

y n 2 2 1 1 1 2

n + n + n = N I 1 1 2 2 2

donde N es el número total de individuos en l a población, entonces defini- mos las frecuencias genotípicas por

D = n /N 3 1

H = n /N 1 2

R = n /N 2 2

donde, D , H y R representan las frecuencias relativas de AA, Aa y aa res- pecti vamen te.

Las frecuencias genotipicas indican entonces l a forma en que l a variación genética de l a población esta distribuida entre los diferentes genotipos.

Definanse ahora las frecuencias génicas como las razones

p = (2D + H)/2N

q = (2R + H)/2N

en donde p es 1 a fracción de alelos A en e l acervo genéti co y q es 1 a

86

fracción de alelos a.. Debe tenerse en cuenta que se está suponiendo que el número t o t a l de individuos diploides N se forma debido a l a unión de 2N gametos provenientes de l a generación anterior cuando el número to ta l de individuos no cambia.

Las frecuencias géni cas nos proporcionan información sobre l a va- riación genética dentro del acervo genético t o t a l de la población.

Ahora bien, en ausencia de factores que cambien las frecuencias génicas como la Selección, la mutación, la deriva génica o l a migración y bajo l a acción de apareamiento aleatorio, las frecuencias genotípicas de un locus simple después de una generación pueden representarse median- t e una distribución binomial relacionada con las frecuencias génicas.

E l enunciado anterior se conoce con el nombre del principio de Hardy-Wienberg y predice la existencia de un punto de equilibrio para las frecuencias genotípicas cuando las frecuencias génicas no cambian:

D = p2

H = 2pq

R = q2

con p2 + 2pq + q 2 = 1.

S i n embargo, en l a s poblaciones naturales dificilmente existen casos en los que no se presenten factores que al teren el valor de 1 as fre- cuencias génicas. En consecuencia, estamos intgresados en estudiar las ca- racter ís t icas par t iculares que producen sobre dichas frecuencias los fac- tores rnerxionados.

Este trabajo se centrará fundamentalmente sobre dos de e l l o s : l a selección natural y la deriva génica.

87.

Para la caracterización del primero de los conceptos mencionados y con mucho e l mas importante del pensamiento evolutivo contemporáneo re- curramos a Darwin:

"...Las variaciones por l igeras que sean, y cualquiera que sea l a causa que las produzca, si son en algún grado provechosas a los i n d i v i - duos de una especie en sus relaciones.. .con otros seres orgánicos y en sus condiciones f í s i cas de vida,tenderán a l a conservación de estos individuos y serán en general heredadas por l a descendencia, l a cual a su vez también tendrá asi mayor probabilidad de sobrevivir. De lcs muchos individuos de una especie cualquiera que nacen periodicamente, solo un número pequeño puede sobrevivir. Este principio por el cual toda ltgera variación, si es ú t i l , se conserva, l o he denominado yo con el término de selección natu- ral . . . ' l . "(cf . El Origen de las especies)?

Esquemáticamente y con terminología modern? podemos representar l a selección natural de la s igu ien te forma (Hedrick, 1984):

Imagínese una población con una cantidad dada de variación genéti- ca entre sus individuos. La variación genética en combinación con compo- nentes ambientales, determina la var iación femtípica para e l conjunto de caracteres expresados por un organismo particular. La cantidad y naturale- za de 1 a variación fenotípica a su vez da 1 ugar a variaciones en sobrevi- vencia, fecundidad, habilidad de apareamiento, e tc . , fac tores que f i n a l - mente determinan l a transmisión hereditaria de alelos a generaciones pos- teriores.

VARlAClON GENOTIPICA AMBIENTAL FENOTIPICA EN EFICACIA

* ""~""""""""""~""""-""~""""""""""""""""~

t

Darwin C. (1859) E l Origen de las Especies. CONACYT, México.

88.

Una vez caracterizado el concepto de selección natural , se proce- derá a la presentación de l a terminología básica con l a que será posible después construir modelos que nos den 1 a posibi 1 idad de predecir trayec- torias evolutivas de l a s poblaciones.

Defínase en consecuencia la e f icac ia re la t iva como la habilidad relat iva de diferentes genotipos para transmitirse a través de sus aielos a generaciones posteriores.

Considérese ahora la si tuación en l a que los genotipos AA, Aa y aa poseen eficacias relativas respectivas w , w , w y supongamos que q es la f recuencia a le l ica de a y 1-q l a de A .

11 1 2 2 2

La ef icacia re la t iva media 6 de l a población se define como l a suma de las contribuciones relativas de los diferentes genotipos. Antes de que actue la selección y por el principio de Hardy-Wiemberg, 1 a efica- c i a media está dada por I Hedrick31984j :

Obsérvese que 1 a contribución re1 ativa medi a de cada genotipo a l a siguiente generación se determina por el producto de la ef icacia re la- tiva respectiva y la frecuencia previa a l a acción de la selección del genotipo particular.

Si llamamos q a 1 a frecuencia de a después de l a acción de la se- 1

lección entonces

q l = (2pqw 1 2 /a/z + q 2 w 2 2 /i = (pqWl2 + q 2 w 2 2 )/i

trow & Kimura, 19701.

El valor del cambio en l a frecuencia génica l a definimos como

89.

1 uego

Aq = ( pqw12 + q2 w - qG)/d; 2 2

por lo tanto y del hecho que q = 1 - p obtenemos:

Observemos ahora que

s i $ es diferenciable. Luego

di/dq = 2[q(w - w ) - p(w 22 1 2 11 - WI2)1

y en consecuencia

Se tiene entonces que e l cambio en frecuencia a lé1 ica es función

de las f recuencias a lé l icas, ef icac ia media y el cambio en e f i cac i a media con respecto a l a f recuenc ia a lé l i ca .

Supondremos ahora que l a e f i c a c i a del heterocigoto es 1 y modifi-

cando adecuadamente l a s e f i c a c i a s de l o s homocigotos se estudiará el efec- t o que tiene wij sobre el cambio genét ico. S i se supone que w pue- den ser d iferentes, existen cuatro t ipos de selección posible:

11 y "12

Selección por A

Selección por a

Ventaja del heterocigoto

90.

Desventaja del heterocigoto.

En par t icular nos centraremos sobre el caso de selección progre- s iva , en l a cual s e da la selección para alelos que son ventajosos para un ambiente dado.

En es ta s i tuación estamos suponiendo que l a población esta sujeta a cambios ambientales que pmdccen el reemplazamiento de alelos que den una mejor adaptación 2 través de la selección natural . Debe hacerse h i n - capié en que no estamos postul ando que nuevos alelos mutantes "surgen" a consecuencia de l o s c a h i o s ambientales ( i .e.: heredabilidad de los carac- teres adquiridos), sino que alelos ya existentes en el acervo genético de 1 a población se ven favorecidos por e l medio y , en consecuencia, se selec- cionan en el 1 ocus al que pertenece.

Denótese por h el nivel de dominancia. La selección progresiva es función de h y por consiguiente, estamos interesados en estudiar e l cambio en l a frecuencia de A a p a r t i r de una frecuencia inicial . Tenemos entonces la siguiente si tuación a modelar:

G e n o t i p o

Adaptabilidad AA Aa aa W W W

l+s l+hs 1

con O " < S < 1 11 amado el coeficiente de selección. Luego susti tuyendo los valores del cuadro anter ior en (1) tenemos

donde d; = 1 + 2 h s x ( l - x ) + sx.

Para el caso S = 0.1 y x = . O 1 tenemos que A se f i j a en aproxima-

91.

damente 100 generaciones cuando no existe dominancia para a , es decir h = 1/2 (ver gráfica 1)

A I "

0.75 --

U t

050 --

o25 --

I I I I I I I

do 2bo 3bo &o 500 600 700

Gráfica 1: Tiempo de f i jac ión para A sin dominancia y para S = 0.1 . ..

x = 0.01 (Según Hedrick,l984). O

_. .

Terminamos aqui los conceptos que se han considerado necesarios para el entendimiento del modelo general de la siguiente sección y se ini- c ia ahora una breve discusión sobre l a deriva génica y su acción sobre l a variación genética.

La deriva génica puede definirse como el cambio que sufre la es- tructura del acervo génico de una población debido a efectos aleatorios que se producen durante 1 a transmisión del acervo génico de generación en generación. Este cambio es errático, de naturaleza también aleatoris. y

aunque débil comparado con el efecto de l a selección natural, es no obs- tante, relevante cuando el tamaño de l a población es pequeño [Roughgarden , 19 791 .

Es precisamente l a deriva génica el factor que introduce elemen-

92.

tos estocást icos en l a model ación de la va r iab i l idad genét ica de l a s po-

bl aciones.

Para estudiar el efecto de la der i va gén ica en poblaciones pe-

quefias se cuenta con el modelo de Wrigth-Fisher mediante el cual se puede ca l cu l a r l a p rob sb i l i dad de que 1 a frecuencia génica tome a lgún va lor

preestablecido. El modelo es una cadena de Msrkoff con probabil idades de

t rans i c i ón dadas po r

y con d i s t . r i buc i ón i n i c i a l dada.

Estas probabi l idades de t rans ic ión representan la probabi l idad de l a e x i s t enc i a de i a le l o s a en l a generación t+l dado que e x i s t í a n j de e l l o s en l a generación t.

En l a g r á f i c a (2) se presenta una simulación, haciendo uso de (2),

de l a d i s t r i b u c i ón de las f recuencias a lé l icas para una población de tama-

ño N = 20.

1 x) GENERACIONES

Gráfica 2: Simulación del efecto de la der iva génica sobre una población de tamaño N = 20, x. = .5 pa r a l a lo. ,50. y 20. generación.

93.

Puede observarse que el efecto final de la deriva génica es el de convertir en homocigota para alguno de los dos alelGs ;1 l a población. E’! proceso es sumamente ráp ido y eventualmente l a m i tad de l a población se f i j a r á para a y l a o t r a para A sin existencia de heterocigotos.

Por otro lado, puede calcularse también la dis t r ibución de las frecuencias de f i jación para e l a le lo a por ejemplc, haciendo uso de l a matriz de transición de Wright-Fisher. En l a f i g u r a (3) se muestran estas distribuciones (Hedrick, 1984) para diversos valores de la frecuencia i n i ci al .

Puede observarse que conforme el valor de 1 - x decrece, la moda de l a distribución se desplaza hacia la derecha. Este fenómeno es ref le jo de la canti dad de cambio total requerido en 1 as frecuencias alé1 i cas para obtener la fijación final del a le lo .

7%

a04 -- q = O 0.8

O 50

GENERACIONES

200

Gráfica 3: Distribuciones de las poblaciones fijadas para a para las fre- cuencias iniciales x = .8, .5 y .2 y N = 20.

94.

2 . Modelo de d i f u s i ó n para seimción n a t u r a l y deriva génica.

El problema que nos ocupa en esta sección es el de predecir 1 a cantidad de polimorfisno y heterocigocidad que se puede mantener en una población de tamaño pequeño cuando es ta sometida a selección progresiva y deriva génica.

Para poder hacerlo aproximaremos el proceso de cambio en las f re- cuencias génicas como un proceso estocástico, en par t icular como u n pro- ceso de difusión [Crow 6 Kimura, 1970; Kimura & Otha, 19711.

Este enfoque de modelación nos permi tira’ después , apl icar l as he- rramientas desarrolladas en es ta monografía para e l anál is is del modelo resultante.

Considérese entonces la si tuación en que un pa r de alelos A y a se segregan en u n a población de tamaño N con frecuencias respectivas x y 1 - x. Debe suponerse también que A es u n a le lo mutante de a que es favo- recido cuando las condiciones ambientales lo propician y que t iene una l igera ventaja selectiva S sobre a en esas situaciones. Se supone también que l a población es panmíctica. Estamos entonces ante un fenómeno de se- lección natural progresiva.

E l objeto que se persigue en lo que resta de l a sección es l a de encontrar una expresión para l a probabilidad de f i jación de A en l a t-ésima generación dado que su frecuencia inicial es x en t = O .

O

Enfocaremos , como ya se ha dicho , 1 a model acjór: de es t e fenómeno suponiendo que e l proceso de cambio en la frecuencia génica de A es un proceso de difusión. La justificación rigurosa de esta hipótesis puede encontrarse en [Kimura, 1970; Crow & Kimura, 1970 y Kimura & Otha , 19711, por ejemplo.

Recurriendo a l a fórmula (1) tomando h = 1/2 y suponiendo S muy

95.

considerar como valores a la frontera

x( .02) = o ~ ( - 9 8 ) = 1

Ambas ccndiciones (4a . ) y (4b.) son de l a forma

x(a) = O x(b) = 1 4

y significan que l a probabilidad de que el alelo A s e f i j e cuando x = a es nul a y que l a misma probabi 1 idad es 1 cuando x = b.

O

O

Con las condiciones a la frontera ( 4 a . ) l a solución de (2.4.4.) es

O

donde u representa l a probabilidad última de f i jación dado que l a frecuen- cia inicial es x .

O

Para e l caso resuelto en las simulaciones del capítulo 2 debe re- solverse (2.4.4.) con las condiciones (4b) obteniendose que

u ( x o ) =

es 1 a expresión

exp(-4Ns( .02)) - exp(-4Nsx ) exp(-4Ns(.02)) -exp(-4Ns(.98))

anal í t ica que se aproxima con l a simulación a través de los siguientes tiempos de paro:

en donde T e s e l estimador de l a probabilidad de que e l a l e l o s e f i j e en l a población y T e s e l estimador correspondiente de l a probabilidad de desaparición.

1

2

96.

pequeña y haciendo las sustituciones pertinentes para x la frecuencia de A. obtenemos que

luego el coeficiente de deriva es

b(xt) = (s/Z)[x( 1 - x)] [Crow & Kimura, op. cit.]

E n cuanto al coeficiente de difusión [Crow & Kimura, op. cit.] de- muestran que está dado por l a vari anza de la distribución binomial de l as f recuan ci as al é1 i cas

a(Xt) = ~ ( l - x)/2N

con estas funciones así definidas la EDE resultante es

dxt = sx(1 - x)dt + (x(1 - x)/2N)’/‘dw

x(0) = x O

donde hemos reetiquetado S : = s/2.

Resumiendo, tenemos que ( 3 ) es el modelo de selección progresiva de u n alelo mutante A con ventaja selectiva S en una población panmíctica y bajo el efecto de ? a deriva génica.

A esta ecuación esta asociada l a ecuación (2.4.4. ) con las condi- ciones a l a frontera

x ( 0 ) = o x(1) = 1 (4a. )

Sin embargo, l a ecuación ( 3 ) presenta problemas de rigidez en l a frontera al resolverla numéricamente, l o que conlleva a l a necesidad de

97.

Las correspondientes estimaciones para ( 5 ) estan dadas por los tiempos de paro

No estudiaremos aqui en l a presentación de los resultados analí t i- cos conocidos y publicados para el modelo con el que trabajamos ahora. Al lector interesado en p r o f u n d i z a r en éstos y otros aspectos de la genética de poblaciones , l e recomendamos I Crow & Kimura, 19701 amp1 iamente.

En la sección siguiente daremos la interpretación de los resulta- dos de las simulaciones presentadas en el capitulo 2 y compararemos en a l - gunos casos , estos resultados con los teóricos cuyas fórmulas hemos pre- sentado en esta sección.

3. Disaasión de resul tadar.

Iniciaremos esta sección especificando los valores de ICs paráme- tras de (3) con los cuales se trabajará.

Considerando que (3) model a el efecto de 1 a deriva génica y 1 a se- lección natural tiene sobre la heterocigosidad y polimorfismo de un locus en una población de tamaño pequeño , se ha tomado N = 10 con el objeto de apreciar mas claramente el efecto del coeficiente de deriva de (3) sobre l a dinámica evolutiva de l a población. Cosa s imilar sucede con el coefi- ciente selectivo s. Se ha tomado aquí como S = 0.1 como un valor repre- sentativo de ventajas selectivas l igeras del a le lo mutante.

En cuanto a l a condición in i c i a l , s e han tomado diversos valores de x que son

O

x = .1, .2, .3, .4, . 5 , .7 , .8 O

98.

En el cuadro (1) se presentan los resultados correspondientes a las probabilidades de f i jación según las fórmulas ( 5a . ) y (5b.) y los tiempos de paro obtenidos p o r simulación de ( 3 ) para cada condición i n i - c ia l x . Se demuestra también el error obtenido entre el valor real dado p o r (5b.) y la simulación.

CUADRO 1: Cuadro comparativo de las probabilidades de fijación obtenidas por simulación y 1 as fórmulss ( 5 ) .

X 5a. 5 b . Sim. Error

.1 .3358

.2 .5609

.3 ,7122

.4 .813

.5 .8808

.6 .9262

- 7 .9562

- 8 .9771

.2 799

.5245

.6885

.7984

.872 1

.9768

.9546

.9 768

.28

.42

.72

.78

.82

.91

.95

1

. O00 1 -1045

- .O315

. O 184

.O5 10

.O115

.O046

- .O232

En l a g ráf ica ( 4 ) puede apreciarse también de los resultados simu- 1 ados .

1.00 " c

o. 75 "

0.50 "

0.25 "

I I I I 1 I I

0.1 0.2 0.3 0.4 0.5 0.6 0.7 08 0.9 1.0

Gráfica 4: Se muestran los resultados obtenidos con l a fórmula (5b.) y l a simulación de (3) .

99 .

Observamos entonces que la probabilidad de fi jación de A aumenta conforme la frecuencia inicial es mas elevada. Este es u n resul tad0 espe- rado ya que estzmos considerando que A t iene una ventaja selectiva sobre a , aspecto que favorece su f i jación. Puede compararse este resultado con la gráfica 2 en donde consideramos el efecto aislado de la selección na- tu ra l . E l alelo A termina fijandose en alrededor de 100 generaciones. La seiección actúa favoreciendo e¡ alelo que l e concede a l a población mayor posibilidad de sobrevivir en el ambiente cambiante.

En l a sucesión de gráficas siguientes se presenta la distribución de las Probabilidades de f i jación para A cuyos valores se han obtenido promediando los correspondientes obtenidos en el capítulo 2 a través de Caminatas Aleatorias y P.T.U.

Podemos observar el mismo fenómeno: mientras mas elevada sea la frecuencia inicial de A en la población, mayor es la probabilidad de su f i j a c i i n .

x = 0.1

40.5

X = 0.4

57

0.0 02 0.4 0.6 08 QO 0.2 Q4 Q6 0.8 0.0 1

X = 0.80

10.5 -

0.2 0.4 Q6 Q8

Gráfica 6: Distribución de las probabilidades de fijación para diversos valores de x (Promedio de valores obtenidos por Caminatas Aleatorias y P.T.U.).

O

100.

F i n a l m e n t e p r e s e n t a m o s e n l a g r á f i c a ( 7 ) ¡as d i s t r i b u c i o n e s de l a

f r e c u e n c i a g é n i c a de A p a r a d i f e r e n t e s g e n e r a c i o n e s c o n s i d e r a n d o u n a f r e -

c u e n c i a i n i c i a l x = .3. En es tas cond ic iones es tamos supon iendo que tan

s o l o e l 33% de l a p o b l a c i ó n c u e n t a , y a s e a h o m o c i g ó t i c a o h e t e r o c i g ó t i c a -

mente, con e l a l e l o A en su g e n o t i p o .

O

t = 5

175 125 135

O.@ 02 0.4 0.6 0.8 1.0

t = 20

235 f

t = IO t = 15

t - 3 5 55.5 t =50

28

'i 45 2.

I I 0.5

ao a2 0.4 0.6 08 1.0 0.0 02 0.4 0.6 a8

29

I 0.5 0.5 0.5

68

1.0 0.0 0.2 0.4 0.6 0.8 1.0

G r á f i c a 7: D i s t r i b u c i ó n de l a f r e c u e n c i a g é n i c a de A en 100 p o b l a c i o n e s

p a r a d i f e r e n t e s t i e m p o s d o n d e x = .3. O

101.

Es a q u í donde puede apreciarse el efecto combinado de la deriva y la selección. Si comparamos estas gráficas con las gráficas correspon- dientes a los efectos de la selección y deriva aislados sobre 1 as proba- bilidades de f i jación. Observamos que la deriva tiende a volver homocigo- tas a las poblaciones para u n o u o t r o alelo, es decir elimina la variabi- lidad genética. Sin embargo, cuando la selección actúa también , las cosas cambian. Existen siempre poblaciones que contarán con individuos polimór- ficos con genotipo Aa y será una mayor proporción de poblaciones l a que se f i j a rá para A comparada con l a proporción que s e f i j e para a .

La selección natural y la deriva génica son entonces fuerzas evo- lutivas de naturaleza opuesta. La segunda de el las t iende a homogenizar e l acervo génico de 1 as poblaciones y l a primera l e da variabilidad que en términos evolutivos significa mayor adaptabilidad y , en consecuencia, mayor capacidad de sobrevi vi r.

Debe indicarse, no obstante, que l a deriva génica solo puede se r s ignif icat iva p a r a poblaciones de tamaño pequeño ya que , según puede apreciarse de (3) , al aumentar el tamaño de l a población N el coeficien- t e de difusión tiende a cero y, en consecuencia, para poblaciones gran- des, solo contará el efecto de la selección natural.

Un comentario resta por hacer. Las técnicas de simulación son en general herramientas versátiles y con una potencialidad de manejo para los científicos no matemáticos, muy grande debido a su r e l a t jva f ac i l i - dad de implementación y al uso de estimadores estadísticos con los que este t ipo de cient í f icos es ta famil iar izado, además de contar con paque- tes especializados para este t i p o de anál is is . Esperamos que el ejemplo que aquí se presenta motive su uso en mayor escala por parte de e s t e t i - po de cient í f icos .

A P E N D I C E A

A q u í se presentan los programas uti l izados en el capítulo 3 en l a generación y pruebas de M B . Aunque en el cuerpo de los programas aparece una documentación de los mismos , haremos una descripción complementaria y presentzremos alguna información auxi l ia r que f a c i l i t e su uso.

SUBRUTINAS.

CAMINA (SEM , NINC , INCR, DT, DCAM)

Esta subrutina simula incrementos de NB mediante CA; estos incre- mentos se utilizan posteriormente en otros programas. Para cada incremen- t o de MB se simulan [ DT/DCAM) sal tos de una CA. De acuerdo a las pruebas efectuadas, esta subrutina simula de manera aceptable incrementos de tra- yectorias de M B , cuando LIT y DCAM son ta les que:

[DT/DCAM] > 40

PTU(SEM, NINC, INCR, DT, N )

Esta subrutina genera incrementos de MB mediante PTU, los cuales se uti l izan después en otros programas. En la f igura 1 se tiene el diagra- ma de flujo uti l izado en la construcción de la subrutina, el cual fué to- mado de [Vázquez-Abad, F. (op . ci t)] .

El parámetro N (velocidad) debe sa t i s f ace r , como ya hemos v is to , l a desigualdad:

103.

s i

FIGURA 1. Algoritmo para generar Movimiento Brownian0 mediante Procesos de Transporte Uniforme.

104.

L ESTO/MONO

# F I L E ( M E E O ) ESTO/PlONO ON PACK

10000

10100 10200

10300 SUBROUTINE PTU(SEM,NINC, INCR,DT,N)

10400

10500 C* SEM = S E P I I L L A

10600 C * N I N C = NUM. DE INCREMENTOS DEL PROCESO A GENERAR

10700 C * I N C R = ARREGLO UNIDIMENSIONAL y DONDE SE GUARDAN LOS INCREMENTOS

10800 C* GENERADOS

10900 C* DT = INCREMENTO DE TIEMPO DEL PROCESO GENERADO

11000 C* N = I N D I C E D E L T E R M I N O U T I L I Z A D O DE LA SUCESION DE PROCESOS (PTU)

11 100 11200 R E A L I N C R ( N I N C )

11300

11400 C * I N I C I A L I Z A C I O N

11500 J = O

11600 SANT = O

1 1700 s = o 11800 T 1 = O

11900 T2 = O

12000 V E L F L O A T ( N )

12100 IF(RANDOM(SEM) .LT. O. 5 ) V E L = -VEL

12200

12300 C* I N I C I A N I T E R A C I O N E S

12400 DO 100 I I N C = 1 ,NINC

12 500 J = J+l

12600 T I = I I N C * D T

12 700 I F ( TAU . GT. DT) GOT0 80

12800 60 S = S + VEL*TAU

12900 T1 = T 1 + T A U

13000 u = RANDOM(SEM)

13100 TAU = -ALOG(U)/(VEL*VEL) 13200 T2 = T2 + T A U

105.

13300 VEL = - V E L

13400 I F ( T 2 .LT. T I ) GOTO 60 13500 T = T I - T 1

13600 GOTO 90 13700 80 T = DT

13800 90 S = S + V E L * T

13900 TAU = TAU - T

14000 T 1 = T 1 + T

14100 C* SE GUARDAN INCREMENTCS DEL PROCESO

14200 I N C R ( J ) = S - SANT

14300 SANT = S

14400 100 CONTINUE

14500

14600 RETURN

14700

14800 END

14900

150CO

15100

15200

15300 SUBROUTINE CAMINA(SEPI,NINC,INCR,DT,DCAM) 15400

15500 C* SEM = SEMILLA , DEBE ESTAR EN ( O ,1) 15600 C * N I N C = NUM. DE INCREMENTOS DEL PROCESO A GENERAR

15700 C* I N C R = ARREGLO UNIDIMENSIONAL, DONDE SE GUARDAN LOS INCREMENTOS

15800 C * GEN E RADOS

15900 C* DT = INCREMENTO DE TIENPO DEL PROCESO GENERADO

16000 C* DCAM = INCREMENTO DE TIEMPO PARA EL PROCESO DE CAMINATA ALEATORIA

16100 C* L I T I L I Z A D A E N L A S I M U L A C I O N

16200

16300

16400 REAL INCR( 100)

16500

16600 C* I N I C I A L I Z A C I O N

\

106.

16700 J = O 16800 SANT = O

16900 s = o 17000 H = SQRT(DCAt1)

17 100 17200 C * 1N IC IP .N ITERACIONES

17300 DO 100 I I N C = 1 ,NINC 17400 J = J t l

17500 T I = IINC*DT

17600 DO 70 I = I N T ( ( T I - DT)/DCAM)+l ,INT(TI/DCAM)

17700 IF (PANCOM(SEM) .LE. O. 5 ) GOTO 60 17800 S = S + H

17900 GOTO 70

18000 60 S = S - H

18100 70 CONTINUE

18200 C" SE GUARDAN LOS INCREMENTOS

18300 INCR(J') = S - SANT

18400 SANT = S

18500 100 CONTINUE

18600 RETURN

18700 END 18800

18900

107.

PROGRAP.1AS

ESTO/GENERADOR

Este programa ut i l iza las subrut inas CAMINA y PTU, para generar y

g r a b a r en disco el arreglo de incrementos de MB de longitud DT:

( I N C ( J , K ) ; J = l , . . . , N I N C ; K = 1, ..., NTRAY)

donde N I N C = num. de incrementos NTRAY = n u m . de trayectorias

Las semi 11 as requeridas en 1 as trayectorias no se tienen que pro- porcionar, s i n o que se definen mediante la instrucción T I M E ( 1 ) .

19000

19 100

19200 C* PROGRAMA ESTO/GENERADOR

19300

19400 $RESET FREE 19500 .......................................................................

19600 C* ESTE PROGRANA OBTIENE N TRAYECTORIAS DE LONGITUD M DE MOVIMIENTO * 19700 C* BROWNIAN0 APROXIMADO POR CAMINATAS ALEATORIAS ESCALADAS, O POR * 19800 C* PROCESOS DE TRANSPORTE UNIFORPIE * i9900 C * S E U T I L I Z A N L A S S U B R U T I N A S : CAMINA(SEM,NINC,INCR,DT,DCAM) * 20000 c* PTU(SEM,NINC,INCR,DT,N) * 20100 C * Y GRABA EL ARREGLO DE INCREMENTOS * 20200 c* I N C ( J , K ) ; J=1, ..., M; K=1 , ..., N * 20300 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

20400 F I L E 8 ( K I N D = D I S K , N E W F I L E )

20500

20600 R E A L I N C ( 100,500) ,MB( 100,500) , INCR( 100)

20700 DIMENSION ARCH( 6 )

103.

20800

20900 C* LECTURA DE PARAMETROS

2 1000 WRITE(6 ,/)"CUAL GENERADOR?? CA=O PTU=l"

2 1100 READ( 5 ,/) KGEN

2 1200 WRITE(G,/)"DAR NINC,TO,DT : I '

2 14QO WRITE(6,/)"DAR NUM. DE TRAYECTORIAS :"

2 1300 READ(5,/)NINCYTO,DT

2 1500 READ( 5 ,/)NTRAY 21600 35 CONTINUE 2 1700 IF(KGEN .EQ. o ) GOTO 40 2 1800 WRITE(G,/)"DAR VELOCIDAD DEL PTU N=? I'

2 1900 READ( 5 ,/)N 22000 GOTO 45

22100 40 WRITE(6,920) 2 2200 READ( 5 ,/) NSAL

22300 DCAM = DT/FLOAT( NSAL)

22400 45 CONTINUE

22500

22600 C* I N I C I A N ITERACIONES

22700 DO 100 K = l ,NTRAY

22800 SEM = TIME(1)

22900 IF(KGEN .EQ. 1) GOTO 60

23000 CALL CAMINA(SEM,NINC,INCR,DT,DCAPl) 23 100 GOTO 70

23200 60 CALL PTU(SEM,NINC,INCR,DT,N)

23300 70 CONTINUE

23400 C* SE FORMA LA FIATRIZ DE INCREMENTOS

2 3500 DO 80 J = l , N I N C

23600 I N C ( J ,K) = I N C R ( J )

23700 80 CONTINUE

23800 100 CONTINUE

23900 M = J 24000 C*SIGUE GRABACION O IMPRESION DE ARREGLOS

24100

109.

24200 C* GRABRCION DE LOS INCREMENTOS

24300 WRITE(6 ,/)"QUIERE GRABAR INCREMENTOS? NO=O, S I = 1 : ' I

24400 READ( 5 ,/) I N C G R A

24500 IF ( I N C G R A .EQ. O ) GOTO 110

24600 VEL = FLOAT(N)

2 4700 iF(KGEN .EQ. O ) VEL = NSAL

24800 WRITE( 6 ,/)"DAR A R C H I V O DE GRABACION DE INCREMENTOS : 'I

24900 REA~(5,910)(ARCH(Ij,I=ly5)

25000 ARCH(6) = I .

25 100 OPEN( 8,TITLE=ARCH ,KIND=DISK,FILETYPE=7)

25200 WRITE(8,/)NTRAY ,NINC,DT,VEL

25300 DO 105 J = l ,M 25400 WRITE( 8 , / ) ( INC( J ,K) ,K= l ,NTRAY

25500 105 CONTINUE

25600 LOCK( 8 )

25700 110 CONTINUE

25800 WRITE( 6,950)

25900 READ( 5 ,/) KOTRO

26000 IF(KOTR0 .EQ. 1 ) GOTO 35

26 100

26200 26300 C* SIGUEN FORMATOS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26400 910 FORMAT(6AG)

26500 920 FORMAT( ~ X , ~ D A R i: DE SALTOS POR INTERVALO DE MUESTREO : I )

26600 950 FORMAT(lX,'QUIERE OTRO PROCESO CON EL MISMO PARAM?? SI=l ,NO=O')

26700 END

26800

26900 C* SIGUEN LAS SUBRUTINAS PTU Y CAMINA ******************* 27000

27100

110.

ESTO/ESTADISTICAS/l

Este programa u t i l i za l as subru t inas CAMINA y PTU. Lee u n archivo en disco que contiene el arreglo

{INC(J,K); J=1, ... ,NINC; K = l , ... , N T R A Y )

generado y grabado anteriormente con el programa E S T O / G E N E R A D O R . Constru- ye NINC muestras de tamaño NTRAY de incrementos de MB, para cada una de las cuales obtiene e imprime de manera opcional:

l. Hi 2 tograma

2 . Media

3. Vari an za

4. Coef

5 . Coef

ic iente de asirnetria (sesgo)

ic ientes de Kurtosis

6 . Estadística de D'Agostino

7. Estadística de D'Agostino-Pearson.

Tznto la Kurtosis , como l a s dos últ imas estadísticas se uti l izan para probar la hipótesis de que l a s muestras de incrementos provienen de ur,a población normal , con media cero y vari anza DT.

Los parámetros que se requieren -y que el programa "pide" ai usua- r i o para poder obtener l as dos úl timas estadís t i cas , son DELTA y l/LAMBDA,

q u 2 aparecen en 1 a tab1 a de ID' Agostino , R. y E .S. Pearson ( 1 9 7 3 ) l , misma tab la que aparece como apéndice en [Seber, G.A.F. (op . c i t . ) ] . Para probar la hipótesis de normalidad mediante el coeficiente de Kurtosis, obtenemos

111.

la región de no rechazo de la f igura 1 de [D l Agostino , R. y E .S. Pearson (op. c i t . )I. La regi6n de no rechazo p a r a l a prueba de normalidad de D'Agostino, puede obtenerse a par t i r de los puntos percentiles del es ta- d í s t ico y cuya tabla aparece en [Seber, G .A.F. (op . c i t . )].

27200

27300

27400 C* PROGRAMA E S T O / E S T A D I S T I C A S / l

27500 27600 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

27700 C* ESTE PROGRAMA LEE UN ARCHIVO DE N TRAYECTORIAS DE NMUEST PUNTOS * 27800 C* MANEJA EL ARCHIVO COMO NPWEST MUESTRAS DE LONGITUD N C/U * 27900 C* OBTIENE PARA CADA MUESTRA : * 28000 C* H ISTOGRAMA * 28100 C* MEDIA, VARIANZA, SESGO, KURTOSIS * 28200 C* Y ADEMAS E S T A D I S T I Z A S P A R A P R U E B A S DE NORNALIDAD DE: * 28300 C* D ' AGOSTINO * 28400 C* D 'AGOSTINO-PEARSON * 28500 C* OMNIBUS * 28600 C * E L A R C H I V O DE INCREMENTOS QUE SE LEERA, DEBE GRABARSE PREVIA.- * 28700 C' MENTE CON E L PROGRAMA ESTO/GENERADOR, Y ESTARA EN LA FORMA: * 28800 C * I I N C ( J , K ) ; J=1, ..., M; K=1, ..., N ) * 28900 ......................................................................

29000 F I L E

29100 F I L E

29200 29300

29400

29500

29600

29700 10 29800

29900

30000

G(KIND=REMOTE,MYUSE=IO,MAXRECSIZE=22) 7( KIND=PRINTER,FIAXRECSIZE=22)

D I M E N S I O N A ( 100,500) ,ARCH(6) ,FR( 100)

DIMENSION CAR( 120)

REAL RAN ,LONG ,MX ,MN ,KURT0

REAL RESTA ( 2 0 , 10 ) DATA CAR/120* ' * I / CONTINUE

W R I T E ( 6 , 9 1 1 )

R E A D ( 6 , 9 1 2 ) ( A R C H ( J ) ,J=1,5) A R C H ( 6 ) = ' . '

112.

30 100 WRITE(6,905)

30200 READ( 6 ,/ j KOMN I

30 300 IF(KOMN1 .EQ. O ) GOTO 70

30400 WRITE( 6,913)

30500 READ(6,/)ZDELYZLAM

30600 70 CONTINUE

30 700 WRITE( 6,915)

30800 READ(6 ,/) KGRA

30900 I F ( KGRA .EQ. O ) GOTO 77

31000 WRITE(6,701)

31100 READ(G,/)NI

31200 WRITE( 7,912) (ARCH(J) ,J=1,5)

31300 I F ( N I .EQ. 0 ) GOTO 6 0 1

31400 GOTO 77

31500 WRITE(G,/)"DAR EL NUMERO DE MUESTRAS"

31600 READ(6 ,/)NMUEST

31700 WRITE(G,/)"DAR EL NUMERO DE TRAYECTORIAS : I '

31800 READ(6 , / )N

31900 WRITE( 6 ,/)"DAR VELOCIDAD : I'

32000 READ(G,/)VEL

32100 77 CONTINUE

32200 OPEN(8,TITLE=ARCH ,KIND=DISK,FILETYPE=7)

32300 READ(8,/)N,NMUESTyDT,VEL 32 400 DO 501 J=l,NMUEST

32500 REP4D(8,/)(A(K,J) ,K=l,N)

32600 501 CONTINUE

32 700 LOCK( 8 )

32800 C* ELECCION DE LA UNIDAD DE SALIDA

32900 WRITE(6 ,/)"UNIDAD DE SALIDA?? TERMINAL=6 , IMPRESORA=7"

33000 READ( 6 ,/) I S

33100 C* IMPRESION DE ENCABEZADO

33200 WRITE( I S ,931)

33300 WRITE( I S ,930) (ARCH( I ) , I = l , 6 )

33400 WRITE( I S ,932)NMUEST

33500 WRITE( I S ,933)N

113.

33600 WRITE( I S ,935) DT

33700 WRITE( I S ,934)VEL

33800 C* ELECCION DE ALTURA DE? HISTOGRAMA

33900 ALTURA = 20

34000 I F ( I S .EQ. 6 ) GOTO 110

34100 IF(KGRA .EQ. O ) GOTO 110

34200 WRITE ( 6 ,/) "DAR ALTURA DEL H ISTOGRAMA ((6 1) : I '

34300 READ( 6 ,/)ALTURA

34400 110 CONTINUE

34500 C* I N I C I A N ITERACIONES POR MUESTRAS

34600

34 700

34800

34900

35000

35100

35200

35300

35400

35500

35600

35700

35800

35900

36000

36100

36200

36300

36400

36500

36600

DO 502 K=l,NMUEST

IF(KGRA .EQ. 1 ) WRITE(IS,~O~)K

IF(KGRA .EQ. o ) GOTO 350

DO 506 I=l,NI

FR( I)=O.O

506 CONTINUE

MX=-500 ;MN=500

DO 720 1=1 ,N I F ( M X .LT. A(1,K)) MX=A(I,K)

I F (MN .GT. A( 1 ,K)) MN=A( I ,K)

720 CONTINUE

RAN=MX-MN

LONG=RAN/NI

DO 725 J=l,N

I F (MN .LE. A(J,K).AND.MN+LoNG.GE.A(J,K))FR(l)=FR(l)+l 725 CONTINUE

DO 730 1=2 , N I

DO 740 J=l,N

I F (MN+( I- l )*LONG.LT.A(J ,K) .AND.MN+I*LONG.GE.A(J , K ) ) F R ( I ) = F R ( I ) + 1

740 CONTINUE

730 CONTINUE

36700 C* BUSQUEDA DE FREC. MAX. PARA ESCALAR HISTOGRAMA 36800 FMAX = O

36900 DO 220 I = l , N I

114

37000 IF(FMAX.LT.FR(I)) FMAX = FR(I)

37100 220 CONTINUE

37200 C* S I FMAX < ALTURA ENTONCES DEJAMOS EL HISTOGRAMA CON A L T U R A O R I G I N A L

37300 I F ( ALTURA. GE . FMAX) ALTURA = FMAX

37400 DO 750 I = 1 , N I

3 7500 GRA = F R ( I ) *ALTURA/FMAX

3 7600 JGRA = I N T ( G R A ) + 1 37700 J = F R ( I) 37800 I F ( J . E Q . 0 ) GOTO 800

37900 W R I T E ( I S ,760) I ,FR( I ) ,MN+( I - l ) * L O N G , ( C A R ( K K ) , K K = l , J G R A )

38000 GOTO 750

38100 800 W R I T E ( IS ,761.) I ,J ,MN+( I - l ) *LONG,MN+I *LONG

38200 750 CONTINUE

38300 C* S IGUE CALCULO DE ESTADISTICOS ************ 38400 350 CONTINUE

38500 I F ( KGRA. EQ. 1) W R I T E ( IS ,918) 38600

38700 C* CALCULO DE MEDIA, VARIANZA, SESGO Y KURTOSIS

38800 S1 = o; S2 = o; S3 = o; S4 = o 38900 DO 400 J=1 ,N

39000 S 1 = S1 + A ( J ,K)

39 100 S2 = S 2 + A ( J , K ) * * 2

39200 400 CONTINUE

39 300 PROM = S l / N

39400 VAR = (S2 - N * P R O M * * Z ) / ( N - l )

39500 IF( KGRA.EQ. 1) WRITE( IS , ~ ~ O ) P R O M , V A R

39600 C* CALCULO DE SESGO Y K U R T O S I S

39 700 DO 425 J = l , N

39800 S3 = S3 + ( A ( J , K ) - P R O M ) * * 3

39900 S4 = S 4 + (A (J ,K ) -PROM)* *4

40000 425 CONTINUE 40 100 DEN0 = VAR* (N-1 )

40200 SESGO = SQRT( N ) *S3/ ( DENO** l .5)

40300 KURT0 = F L O A T ( N ) *S4/ (DENO**2)

115.

40400 IF(KGRA.EQ.~) WRITE(IS,~~~)SESGO,KURTO 40500

40600 C* ESTADISTICOS PARA PRUEBAS DE NORMALIDAD ***************** 40700

40800 C* PRUEBA DE D' AGOSTINO. SEBER (1984) PAG. 144 40900 C* REORDENACION DE LA MUESTRA 41000 DO 440 LS=1, N-1 41 100 DO 435 J=2, N-LS+l 41200 IF(A(J-1 ,K) .LT.A(J ,K)) GOTO 435 41300 AUX = A(J-1,K) 41400 A(J-I,K) = A(J,K) 41500 A(J ,K) = AUX 41600 435 CONTINUE 41700 440 CONTINUE 41800 C* CALCULO DE D 41900 D = O

42000 DO 450 J=l,N 42 100 D = D + (J-(N+l)/Z)*A(J,K) 42200 450 CONTINUE 42300 D = D/SQRT( DENO*N**3) 42400 C* Y ES LA VERSION ESTANDARIZADA DE D 42500 Y = SQRT(N)*(D-l/(2*SQRT(3.14159)))/0.02998598

42600 IF(KGRA.EQ.1) WRITE( IS,925)Y 42 700

42800 C* SIGUEN PRUEBAS OMNIBUS 42900 IF(KOMNI.EQ.O) GOTO 490 43000 C* PRUEBA DE D' AGOSTINO-PEARSON. SEBER (1984) ,PAG. 144 43 100 XDP = DAP (SESGO ,ZDEL ,ZLAM) 43200 IF( KGRA. EQ. 1 ) WRITE ( IS ,940) XDP 43300 940 FORMAT(lX,'D AGOSTINO-PEARSON **Z = ',F12.6)

43400

43500 C* PRUEBA OMNIBUS DE BOWMAN-SHENTON. SEBER( 1984) ,PAG. 144 43600

43700 GOTO 490

116.

43800

43900 O M N I l = DAP(SESGO,ZDEL,ZLAM)

44000 OMNI2 = DAP( KURTO ,ZDEL ,ZLAtl)

44100 OMNI = OMNI 1**2 + OMN I2**2

44200 WRITE( I S ,942)OMNI

44300 942 FORMAT( l X , ' O M N I B U S ********* JI(2) = I ,F12.6

44400

44500 C* TERMINAN PRUEBAS OMNIBUS ******* I

44600

44700 490 CONTINUE

44800 C* ARREGLO DE ESTADISTICOS RESULTANTES (RESTA)

44900 RESTA( K,1) = PROM

45000 RESTA(K,2) = VAR 45 100 RESTA( K,3) = SESGO

45200 RESTA( K,4) = KURTO

45300 RESTA( K,5) = Y 45 400 RESTA(K,6) = XDP

45500

45600 C* TEP.MINAN ESTADISTICOS

45700

45800 502 CONTINUE

45900 WRITE( IS ,949)

46000 WRITE( I S ,950)

46 100 DO 550 K = l ,NFIUEST

46200 WRITE(IS,952) K,(RESTA(K,IE) , IE=1,6)

46300 550 CONTINUE

46400

46500 WRITE(6,/)"QUIERE DAR OTRO ARCHIVO?? NO=O S I = 1 :"

46600 READ(6 ,/)OTRO

46700 IF(OTRO.EQ.1) GOT0 10

46800 601 CALL EXIT

46900 503 FORMAT( // ,2OX , 'MUESTRA # ' ,14,//)

47000 701 FORMAT( lX, 'NUMERO DE INTERVALOS; (O=NO) ' . / ) 47100 761 FORMAT(1X,I3,3X,I4,2XY2(F8.5,2x))

47200 760 FORMAT(1X,I3,3X,I4,2XY2(F8.5,2X) ,120Al)

117.

47300

47400

47500

47600

47 700

47800

47900

48000

48100

48200

48,100

48400

48500

48600

48700

48800

48900

49000

911 FORMAT( l X , ' A R C H I V O : I ) 912 FORMAT( 6A6)

905 FORMAT( l X , ' Q U I E R E PRUEBA OMNIBUS?? NO=O, S I = 1 : )

913 FORNAT(lX,'DAR DELTA,l/LAMBDA (TABLA X EN SEBER) : I )

915 FORMAT(lX,'QUIERE HISTOGRAMAS?? NO=O, S I = 1 : I )

918 FORMAT(1XY'E5TADISTICOS : I )

920 FORMAT(lX,'MEDIA = ' ,F12.6,2XY'VARIANZA = ,F12.6)

922 FORMAT(lX,'SESCO = ' ,F12.6,2X,'KURTOSIS = ' ,F12.6)

925 FORMAT(lX,'PRUEBA DE NORMALIDAD DE DAGOSTINO ** Y = ' ,F12.6)

930 FORMAT( l X , ' A R C H I V O : ' :6A6)

931 FORMAT(//)

932 FORMAT( 1 X ,'NUM. DE MUESTRAS = ' , I 4 )

933 FORMAT( l X , ' N U M . DE TRAYECTORIAS = I , I 7 )

934 FORMAT( 1 X ,'VELOCIDAD = ' ,F8.1)

935 FORMAT(lX,'LONG. DE INTERVALO DE MlJESTREO = ,F12.6) 949 FORMAT( / / , 1QX , I ************ ESTADISTICAS k************** I

Y / )

950 FORMAT( 1X ,"MUEST. MEDIA VAR. SESGO KURTOSIS" , *I' Y ( D A) D-P" ,/)

49100 952

49200

49300 C* ** 49400

49500

49600

49700

49 800

49900

5000

FUNCTION DAP( Z ,ZDEL ,ZLAM)

ZY = Z*ZLAM

DAP = ZDEL*ALOG( ZY+SQRT( ZY*ZY+l . O ) )

RETURN

END

113.

ESTO/ESTADISTICAS/2

U t i l i z a n d o l a s s u b r u t i n a s CAMINA y PTU, es te p rog rama s imu la N t r a -

y e c t o r i as de MB , que p a r t e n de a+x, y c a l c u l a l a p r o p o r c i ó n de t r a y e c t o -

r i a s que se absorben por las barreras {X=a, X=b) ¶ p a r a

x = i ( b - a ) / N = i(RANGO)/N, i=l,.. . ,n-1

F ina lmente impr ime I X( I) , P( I ) , L I N F ( I ) , LSUP( I) , donde:

LINF(I) = X - 1 . 9 6 J m

LSUP(1) = x + 1.964-

Cuando l a p r u e b a s e r e a l i z a con un n i v e l de s i g n i f i c a n c i a i g u a l a

0.05 e l i n t e r v a l o ( L I N F ( I ) , LSUP( I ) ) es l a r e g i ó n de no rechazo de l a

h i p j t e s i s s i g u i e n t e :

La p ropo rc ión de t r a y e c t o r i a s que p a r t e n de a+x y que se absorben

p o r l a b a r r e r a (X=b) es i g u a l a x.

119.

5 1400

5 1500

51600 FILE 7 ( KIND=?RINTER,MAXRECSIZE=ZZ) 5 1700 DIMENSION TPSPOS( 200) ,TPSNEG(200) ,BAPOS(200) ,BANEG( 200)

5 180C DIMENS I O N ARCH ( 3 )

51900 INTEGER VEL,FINF(200) ,FSUP(200)

52000 REAL MP , INCR( 10 )

52100

52200 C INGRESA U N I D A D DE SALIDA

52300 WRITE(6,915)

52400 READ( 5 J) I S

52500

52600 C LECTURA DE PARAMETROS DE SIMULACION

52 700 ARCH( 1) = ' C A . ' 52800 ARCH(2) ='PTU. ' 52900 WRITE(6,920)

53000 READ( 5 ,/)NTRAY ,DT

53100 WRITE ( 6 , 922)

53200 READ( 5 ,/) KGEN

53300 IF ( KGEN . EQ. 1 ) GOTO 100

53400 WRITE(6,926)

53500 READ( 5 ,/) NSAL

53600 DCAM = DT/FLOAT( NSAL)

53700 GOTO 120

53800 100 WRITE( 6,924)

53900 READ( 5 ,/) VEL

54000 120 CONTINUE

54100 C LECTURA DE PARAMETROS SOBRE BARRERAS

54200

54300 WRITE( 6,930)

54400 READ( 5 y / ) NB 54500 WRITE(6,932) 54600 READ( 5 J) RANGO

54700 C ASIGNACION DE BARRERAS 54800

120.

54900 DO 130 1=1 ,NB

55000 BAPOS( I) = I*RANGO/NB

55 100 BANEG( I ) = -BAPOS ( I ) 55200 130 CONTINUE

55300

55400 C EMPIEZAN TRAYECTORIAS

55500

55600 DO 777 K=l,NTRAY

55700 C INICIALIZACION DE TRAYECTORIA

55 800 SEN = TIME(1)

55900 I P O S = 1 56000 INEG = 1

56 100 MB = O

56200 J = O

56300 DO 300 I=l,NB

56400 TPSPOS(1) = -1. 56500 TPSNEG(1) = -1. 56600 300 CONTINUE

56700

56800 C INICIAN ITERACIONES POR PUNTOS MUESTRALES

56900 200 CONTINUE

5 7000 J = J + l

57100 IF(KGEN.EQ.1) GOTO 210 5 7200 CALL CAMINA(SEM,~,INCR,DT,DCAM) 57300 GOTO 215 57400 210 CALL PTU(SEM,I,INCR,DT,VEL)

57500 215 MB = MB + INCR(1)

57600

57700 230 CONTINUE

5 7800 IF(MB.LT.BAPOS(IPOS)) GOTO 240 57900 TPSPOS( I P O S ) = J*DT

58000 IPOS = I P O S + 1 58100 IF ( IPOS.GT.NB) GOTO 250

58200 GOTO 230

58300 240 CONTINUE

121.

5 8400 IF(MB.GT.BAENG( INEG)) GOTO 200

58500 TPSNEG( INEG) = J*DT

58600 I N E G = I N E G + 1

58700 IF(INEG.LE.NB) GOTO 230

58800 250 CONTINUE

58900 C DETERMINACION DE BARRERAS DE SALIDA

59000

59100

59200 DO 320 I = l , N B - 1

59300 I B A P = I

59400 I B A N = NB - I

59500 IF(TPSPOS( IBAP) .LT.O) GOTO 305

59600 IF(TPSNEG( IBAN) .LT.O) GOTO 310

59700 IF(TPSPOS( IBAP) .LT.TPSNEG( IBAN)) GOTO 310

59800 305 FINF(1) = F INF(1 ) + i 59900 GOTO 320

60000 310 FSUP( I ) = FSUP( I ) + 1

60100 320 CONTINUE

60200 777 CONTINUE

60300

60400 C IMPRESION DE FRECUENCIAS DE SALIDAS POR BARRERAS

60500 C SUPERIOR E INFERIOR

60600 IF(KGEN.EQ.0) VEL = NSAL

60700 WRITE( I S ,950)

60800 WRITE(IS,~~~) ARCH(KGEN+I)

60900 WRITE( I S ,954) NTRAY ,DT ,VEL

61000 WRITE('IS,956)NB ,RANGO

6 1100 WRITE( I S ,960)

6 1200 DO 400 I=l ,NB- l

61300 X = BA?OS( I )

6 1400 DE = SQRT(X"(l.0-X)/FLOAT(NTRAY)) 6 1500 OINF = X-1.96*DE 6 1600 OSUP = X+1.96*DE

6 1700 P R I = FLOAT(FI!!F( I))/FLOAT(NTRAY)

122.

6 1800 PRS = F L O A T ( F S U P ( I ) ) / F L O A T ( N T R A Y )

6 1900 W R I T E ( I S ,965) I ,X ,PRI ,OINF,OSUP

62000 400 CONTINUE

62100 C* **** SIGUEN FORMATOS **** 62200

62300 915 F O R M A T ( l X , ' D A R U N I D A D DE S A L I D A T E R M I N A L = 6 , I M P R E S O R A = 7 ' )

62400 920 FORMAT( lX , 'NTRAY,DT ? ? : ' ) 6 2 5 0 0 9 2 2 FORMAT( lX , 'CUAL GENERADOR?? CA=O, PTU=l : I )

62600 926 FORMAT( 1X , 'NUM. DE SALTOS POR I N T E R V A L O DE MUESTREO ? ? : ' ) 62700 924 FORMAT( lX , 'VELOCIDAD DEL PTU.?? : ' ) 62800 930 FORMAT( 1X , 'DAR NUM. DE BARRERAS S I M E T R I C A S E N CERO ? ? : ' ) 62900 932 FORMAT( lX, ' DAR RANFO DE TRAYECTORIAS ? ? : ' ) 63000 950 FORMAT( lX , 'CONTEO DE SALIDAS POR BARRERAS SUP. E I N F . ' ,/, 63100 1 1 X , ' X O ( I ) : D I S T . DE L A BARRERA SUP. AL PUNTO DE P A R T I D A ' , / ,

63200 2 1 X , ' ( P R I ( I) : PROP. DE S A L I D A S POR L A BARRERA INFERIOR ' ,/, 63300 3 1 X , ' P R S ( I ) : PROP. DE S A L I D A S POR L A BARRERA SUPERIOR' ,/) 63400 952 FORMAT( lX , 'MB . S IMULADO POR : ' , A 6 )

63500 954 FORMAT( lX , 'NUM. DE TRAYECTORIAS : ' ,16,/,

63600 1 1 X ' INTERVALO DE MUESTREO : ' ,F8.5 ,/ , 63700 2 1 X , ' V E L O C I D A D : ' , I 5 )

63800 956 FORMAT( lX , 'NUM. DE B A R R E R A S S I M E T R I C A S E N CERO : ' ,14,/ , 63900 l l X , ' D I S T A N C I A E N T R E B A R R E R A S : ' ,F6.2)

64000 960 FORMAT(ZX,'I XO(I) PRI(I) LINF(I) L S U P ( I ) ~ )

64100 965 FORMAT(1X,I2,2X,F6.2,2X,F6.3,2(2X,F7.4)) 64200 END

64300

64400 C* S IGUEN SUBRUTINAS PTU Y C A M I N A

64500

64600

#

A P E N D I C E B

A q u í se presenta un programa para generar una trayectoria aproxi- mada de una difusión.

Uti1 iza las rutinas CAMINA y PTU (apéndice A) pari; ger;erar trayec- tor ias aproximadas de movimiento browniano. También ut i l iza la rut ina .RKF45 [Forsythe e t a l . (1977)J para integración numérica.

C * * * * * * * * * * * * * * * SIMULA UNA TRAYECTORIA DE UNA DIFUSION.

EXTERNAL F F

WQITE(4r/) "SEMILLA " READ(6r/) S E M

R E A 0 ( 6 < / ) N;? WRITE($//) SALIDA (6=TERMINAL, i'=IMPRESORA) "

READ(6,/) N S

'dRiTE(6,/) "OPCION (l=PTU, 2=CA) I'

E l = l . O E - 5 E2=l . O E - 5 N=l WRITE(NS/?10) TOP(N0P) TI-0. O T Z = T 1 Y ( 1 )=X0 IN=l NP=O

l o o IF(NP.GT.O.AND.NP.LT.IO) GO T O 2 0 0 IF(NOP.EQ.1) CALL PTU(SEMtIC,WW,Ht4) IF(NOP.EQ.2) CALL C A M I N A ( S E M I ~ O I W W ~ H / O . O ~ ) NP=O

200 NP=NP+l DW=WW (NP) /ti

124.

420 G O TO 500

4 3 0 G O TO 700

440 WRITE(6r920) IN/TIrY(1) IF(TI.EQ.T2) G O T O 500 G O T O 100

450 GO T O 700

4 6 0 G O T O 700

470 WRITE(6/920) INrTl r Y ( 1 1

G O T O 100 IF(Tl.EQ.TZ) G O TO 500

480 G O T O 700

5 0 0

7 0 0

T2=T1 +H IF(Y(l).LT.Xl+E?) G O T O 8 0 0 IF(Y(l).GT.XZ-EP) G O TO 8 0 0 G O TO 100

8 0 0 CALL E X I T

END

SUBROUTIqE FF(TrYrYP)

RETURN

E N D

125.

B I B L I O G R A F I A

BILLINGSLEY , P . (1968). "Convergence o f P r o b a b i 1 i ty Measures". John Wiley. New York.

B I R D , R.B. STEWART & E.N. LIGHTFOOT ( 1 9 6 0 ) . " T r a n s p o r t Phenomena. John Wiley & Sons, New York.

BPAUN, E . (1984) . "Movimiento Browniano" . Cienc ia - 35, 97-116.

CLPRK. J.M.C. ( 1 9 7 0 ) . " T h e r e p r e s e n t a t i o n o f f u n c t i o n a l s o f brownian mot ion as s tochas t i c i n teg ra l s " . Anna l s o f Ma th . S ta t . 41 , 1282 - 1295.

-

COURANT, R . , K.O. FRIEDRICHS & H. LOWY ( 1 9 2 8 ) . " b b e r d i e p a r t i e l l e d i f ferenzena1eichun;m der Phusik" . Math. Ann. 100, 32-74. Reimpreso (en i n g l é s ) e n IBM J. Res. Dev. - 11 ( 1 9 6 7 ) , 2 1 4 - 2 3 4 7

COURANT, R. 8. D. HILBERT (1966). "Methods o f M a t h e m a t i c a l P h i s i c s " , v o l . I. I n t e r s c i e n c e P u b l i s n e r s I n c . New York.

CROW, J. & M. KIMURA (1970) . "An i n t r o d u c t i o n t o P o p u l a t i o n Genetics Theory". Harper and Row, New York.

D'AGOSTINO, R . B . & E.S. PEARSON ( 1 9 7 3 ) . " T e s t s f o r d e p a r t u r e f r o m n o r m a l i t y . E m p i r i c a l r e s u l t s f o r t h e d i s t r i b u t i o n o f b, and f i l " B i o m e t r i k a 60, 613-622.

D I M A S I , G. & W . RUNGGALDIER (1980 ) . " A cont inuous t ime approx ima- t i o n t o o p t i m a l n o n l i n e a r f i l t e r i n g " . Pags. 153-160 de A r c h e t t i , F. & M. Cug iano , eds . (1980) , "Numer ica l techn iques fo r s tochas t i c sys tems" . Nor th H o l l a n d P u b l i s h i n g Co., Amsterdam. (1981) Appl. Math. Optim. - 7, 233-245.

DOOB, J .L . (1953) . "Stochast ic Processes" . John Wi ley & Sons. New York.

EINSTEIN, A . ( 1 9 5 6 ) . " I n v e s t i g a t i o n s on the Theory o f the Brownian Mct ion" . Dover . Inc. , New York.

FORSYTHE, G.E. 9. M.A. MOLER (1977). "Computer methods f o r mathemat ica l computa t ions" . Pren t i ce Ha l l , New York.

FREED", D. (1971) . "Brown ian Mot ion and D i f fus ion" . Ho lden Day, San Francisco.

FRIEDMAN, A. ( 1 9 7 5 ) . " S t o c h a s t i c D i f f e r e n t i a l E q u a t i o n s a n d A p p l i c a t i o n s " , Vol. I . Acadevic Press, New Yo rk '

GOROSTIZA, L. & R. GRIEGO (1980) . "Rate of convergence o f u n i f o r m t r a n s p o r t p r o c e s s e s t o b r o w n i a n m o t i o n a n d a p p l i c a t i o n t o s t o c h a s t i c i n t e g r a l s " . S t o c h a s t i c s , - 3, 291-303.

126.

GRIEGO, R . , n . C . HEATH & A . RUIZ-MONCAYO. ( 1 9 7 1 ) . "Almost sure convergence o f uniform t r a n s p o r t p r o c e s s e s t o brownian motion". A n n . Math. S t a t . - 42, 1129-1131.

HEDRICK, P .W . ( 1 9 8 4 ) . " G e n e t i c s o f p o p u l a t i o n s ' S c i e n c e Books I n t e r n a t i o n a l , B o s t o n .

HEPNANDEZ, D . B . (1981) . "Caminatas Aleator ias y Movimiento Browniano". Monografías del I n s t i t u t o de Matemáticas # 9 . U N A M , Cd. de Méx i co .

HERNANDEZ, D.B . ( 1 9 8 5 ) . " P r o c e s o s E s t o c á s t i c o s , con a p l i c a c i o n e s a l f i l t r a j e " . Rep. In t . Secc ión de Control del Departamento de Ingenier ía E l é c t r i c a del CINVESTAV, Cd. de México.

HERNANDEZ, D.B. & L . J . ALVAREZ (1985) . "E l método de Monte Carlo" . Informe Monográfico del Departamento de Matemáticas. UAM-Iztapalapa, Cd. de Méx i co .

JANSSEN, R . ( 1 9 8 4 ) . " D i s c r e t i z a t i o n o f t h e N i e n e r P r o c e s s i n Dif ference Methods f o r S t o c h a s t i c D i f f e r e n t i a l E q u a t i o n s " . S t o c h . P r o c . Appl. , 18, 361-369.

KAC, M . ( 1 9 5 1 ) . "On some connections between Probabil i ty Theory and D i f f e r e n t i a l and Integral Equat ions" , Proc . Second Berkeley Symposium on P r o b a b i l i t y and Mathematical S t a t i s t i c s , pp. 189-2 '15 . Univers i ty of C a l i f o r n i a P r e s s , B e r k e l e y .

K A C , M . ( 1 9 6 6 ) . "Can one hear the shape o f a drum?". American Mathematical Monthly, - 73 , 1 -23 .

KAKUTANI, S. ( 1 9 4 4 ) . "Two dimensional brownian motion and harmonic funct ions" , Proc . Imp. Acad. Tokyo, - 20 , 706-714 .

KIMURA, M . ( 1970) . "S tochas t i c Processes in Popula t ion Genet i cs " , en K.. Kojima (ed. ) "Mathematical topics in popula t ion genet i cs " . Spr inger Ver1 a g , B e r l i n .

KIMURA, M . & T . OTHA ( 1 9 7 1 ) . " T h e o r e t i c a l a s p e c t s o f p o p u l a t i o n g e n e t i c s " . P r i n c e t o n U n i v e r s i t y P r e s s , Princeton.

KNIGT, F . B . ( 1 9 8 1 ) . " E s s e n t i a l s o f Brownian Motion and Dif fusion" . AMS/Mathematical Surveys # 18, Providence , RI .

KUSHNER, H . J . (1977) . "Probabi 1 i t y methods for approximations in s t o c h a s t i c c o n t r o l and f o r e l l i p t i c e q u a t i o n s " . Academic P r e s s , New York.

KURTZ, T . ( 1 9 8 1 ) . "Approximation of population processes" . Regional Conference Series in Msthematics # 3 6 , SIAM, Phi lade lphia .

LEVI, E . ( 1 9 8 0 ) . " T e o r í a y Métodos de l a s Matemáticas Apl icadas'l . Ed. U N A M , Cd. de México.

LOEVE , M . ( 1977) . "Probabi l i t y Theory" , 4a . ed ic ión . Spr inger Verlag, New York.

MARUYAMA, G . (1955). "Continuous Markov processes and s t o c h a s t equations". Rend. Circ . Mat. Palermo - 4 , 4 8 - 9 0 .

McSHANE , E . J . ( 1 9 7 4 ) . " S t o c h a s t i c c a l c u l u s and s t o c h a s t i c mode Academic Press , New York.

NELSON, E . ( 1972) . "Dynanica l Theor ies o f Brownian Mction". P r i n c e t o n U n i v e r s i t y P r e s s , P r i n c e t o n , N . J .

127.

i c

1 S " *

R A O , M . ( 1 9 7 7 ) . "Brownian Motion and Class ical Potent ia ¡ Theory" . Lecture Notes Ser ies , No. 47 , Matematisk Inst i tut/Aarhus Univers i tet , Aarhus.

ROUGHARDEN, J. ( 1 9 8 0 ) . "Popul a t ion Genet i cs and Evolut ionary Eco1 ogy: An Introduct ion" . Mac Mi 1 1 an , Masachsset ts .

RUIZ MONCAYO, A . ( 1980) . " In t roducc ión a l a P r o b a b i l i d a d " . Fondo de Cultura Económica , Cd. de México.

RhELIN, W . ( 1 9 8 2 ) . " N u m e r i c a l t r e a t m e n t o f s t o c h a s t i c d i f f e r e n t i a l equations". SIAM J . Numer. Anal. - 19, 604-613.

SEBER, G.A.F. ( 1984) . "Mul t ivar ia te Observat ions" . John Wiley, New York.

STROOK, D . & S.R.S. VARADHAN (1979) . "Mul t id imens ional d i f fus ion processes" . Springer Verlag. New York.

V A R G A S , C . ( 1 9 8 5 ) . "Métodos numéricos para ecuaciones diferenciales" . Notas del IV Coloquio del Departamento de Matemáticas del CINVESTAV, Cd. de México .

VASQUEZ ABAD, F. (1984) . "S imulación de Procesos de D i f u s i ó n , con apl i cac iones en e l s e c t o r e n e r g é t i c o " . T e s i s de Maestr ía en E s t a d i s t i c a e Invest igación de Operaciones (IIMAS-UNAM) , Cd. de México.

WAX , N . ( 1954) . "Se lec ted papers on n o i s e and s t o c h a s t i c p r o c e s s e s " . Dover, Inc. New York.

WONG, E . & B . HAJEK ( 1 9 8 5 ) . " S t o c h a s t i c P r o c e s s e s i n E n g i n e e r i n g Systems". Springer Verlag, New York.