Estadística2011
Maestría en FinanzasUniversidad del CEMA
Profesor: Alberto Landro
Asistente: Julián R. Siri
Clase 1
4. La Relación de Independencia Estocástica
5. El Teorema de la Probabilidad Total
1. Las Definiciones de Probabilidad
2. Variables Aleatorias
3. Función de Densidad de Probabilidad
6. Momentos de una variable aleatoria
• Definición Clásica: Si existe un fenómeno de resultado eventual, asociado a dicho fenómeno se podrá definir el conjunto (finito) de sus posibles resultados:
•Sea A un evento en un espacio muestral, entonces P(A)será la probabilidad de dicho evento.
•La probabilidad de ocurrencia de un evento se mide entonces como la relación entre los resultados favorables (m) y los resultados posibles (n)
1. Las Definiciones de Probabilidad
m
p An
1 2, ,..., nY w w w
• Definición Frecuencista: Absolutamente fundamentada en la experimentación, se trata de obtener una probabilidad de ocurrencia de A a partir de n observaciones del fenómeno Y
• Definición Subjetivista: El observador, a partir de cierta información que posee del fenómeno bajo estudio, asigna una probabilidad de ocurrencia del mismo, de la forma:
1. Las Definiciones de Probabilidad
limn
mp A
n
p A
• El conjunto de todos los resultados posibles de un
experimento aleatorio se denomina población,
mientras que cada miembro de éste constituye un
punto muestral.
•Por otro lado, un evento no es más que un
subconjunto del espacio muestral antes definido.
1. Las Definiciones de Probabilidad
• Definición: Función real de una partición del espacio muestral
asociada a un fenómeno de comportamiento no-determinístico,
formado por eventos que representan el conjunto de resultados
posibles de dicho fenómeno particular.
•La teoría de las v.a. está dirigida al cálculo de sus probabilidades
asociadas,
2. Variables Aleatorias
p X B p X w B p w X w B
• Las v.a. pueden ser tanto unidimensionales como
multidimensionales. Aquí lo que hacemos es definir al espacio al que
pertenecen. Las variables unidimensionales pertenecen a ,
mientras que las variables n-dimensionales pertenecen al espacio .
•También, las v.a. pueden ser discretas (adquieren solamente un
número finito de valores) o continuas (puede tomar cualquier valor
dentro de un intervalo de valores)
2. Variables Aleatorias
1
n
• Para dar una definición estricta (unívoca) a una
v.a., es necesario definir su dominio, , así como
su función de probabilidades, .
•Sin embargo… no siempre es posible definir de
forma estricta una v.a. Existe pues una definición
débil, la cual se estructura a partir de ciertas
medidas que caracterizan a la v.a.: posición,
dispersión, asimetría, kurtosis, etc.
2. Variables Aleatorias
ip X w x
•Sea X una v.a. discreta que toma valores diferentes, entonces la
función
se denomina función de densidad de probabilidades discreta.
Sea X una v.a. continua, entonces se dice que es la FDP de X si
se satisfacen las siguientes condiciones:
3. Función de Densidad de Probabilidad
para 1,2,...,
0 para
i
i
P X x i nf x
x x
0
1
b
a
f x
f x dx
f x dx P a x b
f x
•Sean X y Y dos v.a. discretas. Entonces la función
se conoce como función de densidad de probabilidades conjunta
discreta.
•En relación con , se denominan funciones de
densidad de probabilidades marginales. Estas se obtienen de la
siguiente manera:
3. Función de Densidad de Probabilidad
,
,0 cuando y
P X x Y yf x y
X x Y y
, FDP marginal de
, FDP marginal de
y
x
f x f x y X
f y f x y Y
y f x f y ,f x y
•Dado que nos va a interesar de ahora en más conocer el
comportamiento de una variable condicional a los valores de otra u
otras variables, podemos considerar la FDP condicional:
¿Cómo podemos obtenerla?
3. Función de Densidad de Probabilidad
f x y P X x Y y
, FDP condicional de
f x yf x y X
f y
•X y Y son independientes si, y sólo si, se verifica la relación:
•En general, para definir la relación de independencia utilizamos:
•Por otro lado, teniendo un evento Z adicional, se dice que X y Y son
condicionadamente independientes, supuesto un valor dado de Z
si se verifica que:
4. La Relación de Independencia Estocástica
X Y
i j ip X x Y y p
, ,X Y X YF x y F x F y
i j h i hp X x Y y Z z p X x Z z
•Por último, tres eventos X, Y y Z son “estocásticamente
independientes” si:
4. La Relación de Independencia Estocástica
P X Y Z P X P Y P Z
P X Y P X P Y
P X Z P X P Z
P Y Z P Y P Z
•Aplica cuando tratamos con eventos que son no excluyentes entre sí.
•El teorema aplicado a dos eventos determinados, X y Y:
•Extendiéndolo, en forma genérica:
5. Teorema de la Probabilidad Total
P X Y P X P Y P X Y
1
11 1
1n nn
n
i i i j i
i i ji i
P E P E P E E P E
•Definición: Es el “valor esperado” o promedio aritmético ponderado
de una función de la variable aleatoria, elevada a un exponente real
no-negativo (determinando éste el “orden” del momento):
•Hay dos tipos de momentos: los absolutos, denotados por , y
los centrados (alrededor de cierta variable), denotados por .
6. Momentos de una variable aleatoria
1 1
s s s
s X XE X m X x dF x x f x dx
sm X
s X
•Caracteriza la “posición” de una variable aleatoria:
•Entre sus propiedades tenemos que:
–El valor esperado de una constante es la constante misma:
–Siendo a y b constantes,
–Si X y Y son v.a. independientes, entonces
–Si g(X) es cualquier función de X, entonces
–Siendo Z una v.a. multidimensional tal que , tenemos que:
–Por otro lado, si a Z la definimos de la siguiente manera, , entonces:
•Otras medidas de posición: los cuartiles, la mediana y la moda.
6.1. Valor esperado
E XY E X E Y
1
1
i i
i
E X x p m X m X
XE X xf x dx
E b b E aX b aE X b
E g X g X f x dx
i
i
Z X
1 2 1 2, ,..., ...n nE Z E X X X E X E X E X
i
i
Z X i i
i i
E Z E X E X
• Es el momento centrado de segundo orden. Define una medida del
grado de dispersión de los valores de la variable respecto a su media:
•Del mismo se deriva el “coeficiente de dispersión” o “desviación
estándar”:
6.2. La Varianza
22
2
22
2
2
2
X X E X E X
E X E X E X E X
m X m X
2X X
Propiedades
–La varianza de una constante es cero.
–Si a y b son constantes, entonces,
–Si X y Y son variables aleatorias independientes, entonces
–Combinando los últimos dos supuestos tenemos que,
–Sea Z una variable aleatoria n-dimensional, . Se verificará que:
–Si en cambio, Z es definida como , donde las n variables marginales son
independientes. Entonces verificamos que:
6.2. La Varianza
1 2 ... nZ X X X
2 2 2
1 2
1
... 2 ,n
n i i j
i i j
Z X X X X X X
2var varaX b a X
var var varX Y X Y
2 2var var varaX bY a X b Y
i
i
Z X
2 22 2 2
1 2
1 1
...n n
n i i i
i i
Z X X X X m X m X
• A partir de los resultados que proporciona la desigualdad de Schwartz,
se tiene que:
•Quedan demostrados así los límites para el coeficiente de correlación
lineal:
6.3. La Covarianza y el Coeficiente de Correlación
22
2 2 2 2
,X Y E X E X Y E Y
E X E X E Y E Y X Y
,1
X Y
X Y
Propiedades
•Si X y Y son variables aleatorias independientes, su covarianza es cero,
puesto que:
•Si hubiese también constantes involucradas,
6.3. La Covarianza y el Coeficiente de Correlación
0
, cov ,
dado que
x y
x y x y x y
X Y X Y E XY
E XY E X E Y
cov , cov ,a bX c dY bd X Y
• Resulta útil para medir el grado de concentración de los valores de la
variable a la izquierda o a la derecha de su valor central.
•La medida de asimetría habitualmente utilizada es el momento centrado
de tercer orden de la variable estandarizada:
6.4. Coeficiente de asimetría
3
3
XAs X
X
0As X 0As X 0As X
• Aquí se busca medir el apuntalamiento, o sea, qué tan alta o qué tan
plana es la distribución de la variable aleatoria en cuestión.
•La medida de kurtosis ampliamente aceptada es aquella que permite
comparar una variable cualquiera con la “variable” Normal, en lo que
respecta al valor de probabilidad correspondiente al modo:
6.4. Coeficiente de Kurtosis
4
43
XK
X
0 leptokúrtica
0 "probabilidad modal" igual de "apuntada" que la Normal
0 platokúrtica
K
Me pueden escribir a:
Las presentaciones estarán colgadas en:
www.cema.edu.ar/u/jrs06
FIN
Top Related