06 – Variables aleatorias conjuntas

Contenido ●





Diego Andrés Alvarez Marín Profesor Asistente Universidad Nacional de Colombia Sede Manizales

Variables aleatorias conjuntas Funciones de masa de probabilidad conjunta, marginal, condicional, independencia Funciones de densidad de probabilidad marginal, condicional, independencia



FMP multinomial, FDP normal multivariada



Funciones de distribución acumulada conjuntas



Covarianza, correlación



Introducción a la teoría de cópulas

conjunta,

1

Objetivo

2

Variables aleatorias conjuntas

Conocer el concepto de variable aleatoria conjunta y analizar el comportamiento probabilista conjunto e individualmente de las variables a través de su FMP/FDP e indentificar relaciones de dependencia entre dichas variables.

Espacio muestral En muchos casos es necesario estudiar dos o más características de un experimento

Ω = {11,12,13,14,15,16 21,22,23,24,25,26 31,32,33,34,35,36 41,42,43,44,45,46 51,52,53,54,55,56 61,62,63,64,65,66}

X1 = Resultado del lanzamiento X2 = La suma de los resultados del lanzamiento 3

4

Variables aleatorias conjuntas Espacio muestral

Función de masa de probabilidad conjunta

Ω = {11,12,13,14,15,16 21,22,23,24,25,26 31,32,33,34,35,36 41,42,43,44,45,46 51,52,53,54,55,56 61,62,63,64,65,66}

X1 = Resultado del lanzamiento

X2 = La suma de los resultados del lanzamiento 5

Función de masa de probabilidad conjunta

x2\x1

1

2

3

4

5

6

2

1/36

0

0

0

0

0

3

1/36 1/36

0

0

0

0

4

1/36 1/36 1/36

0

0

0

5

1/36 1/36 1/36 1/36

0

0

6

1/36 1/36 1/36 1/36 1/36

7

1/36 1/36 1/36 1/36 1/36 1/36

8

0

9

0

0

10

0

0

0

11

0

0

0

0

12

0

0

0

0

0

1/36 1/36 1/36 1/36 1/36 1/36 1/36 1/36 1/36 1/36 1/36 1/36 1/36 1/36 0

1/36 6

Propiedades de la función de masa de probabilidad conjunta bidimensional

7

8

Propiedades de la función de masa de probabilidad conjunta

Ejemplo 1: FMP conjunta

9

Graficando FMP conjuntas en MATLAB ● ●

10

Función de masa de probabilidades marginal

stem3 hist3

11

x2\x1

1

2

3

4

5

6

pX2(x2)

2

1/36

0

0

0

0

0

1/36

3

1/36 1/36

0

0

0

0

2/36

4

1/36 1/36 1/36

0

0

0

3/36

5

1/36 1/36 1/36 1/36

0

0

4/36

6

1/36 1/36 1/36 1/36 1/36

0

5/36

7

1/36 1/36 1/36 1/36 1/36 1/36

8

0

1/36 1/36 1/36 1/36 1/36

9

0

0

10

0

0

0

11

0

0

0

0

12

0

0

0

0

1/36 1/36 1/36 1/36 1/36 1/36 1/36 1/36 1/36 0

1/36

pX1(x1) 6/36 6/36 6/36 6/36 6/36 6/36

6/36 5/36 4/36 3/36 2/36 1/36 12

1

Función de masa de probabilidades marginal Si en un experimento aleatorio se define más de una variable aleatoria, entonces es importante distinguir entre la FMP conjunta de X y de Y y la FMP de cada una de las variables por separado.

Propiedades de la FMP marginal La FMP marginal es una FMP común y corriente, por lo tanto cumple las siguientes propiedades:

En general, la FMP marginal de X puede hallase a partir de la FMP conjunta así:

13

Función de masa de probabilidades marginal

15

14

Ejemplo: FMP marginal

16

Definición general de FMP marginal

Solución con MATLAB ●

sum(p,1)



sum(p,2)



sum(p,3)

17

18

Ejemplo: FMP marginal

Solución con MATLAB ●

19

sum(sum(sum(p, 1), 2), 3)

20

FMP condicional

FMP condicional

Cuando en un experimento aleatorio se definen dos o más variables aleatorias, el conocimiento de una puede cambiar las probabilidades que se asocian con los valores de la otra. En el ejemplo del dado, cuando se sabe que X=6, se tiene que la suma de ambos dados tiene que ser un número entre 7 y 12. Recuerde que la definición de probabilidad condicional para los eventos A y B es P(B|A) = P(A∩B)/P(B). Esta definición puede aplicarse a los eventos A y B definidos como X=x y Y=y 21 respectivamente.

Propiedades de la FMP condicional

23

22

Ejemplo FMP condicional

24

FDP condicional

Ejemplo: FMP condicional

25

Media y varianza condicional

26

Media y varianza condicional

Si X y Y son dos variables aleatorias conjuntas y se conoce con certeza el valor que tomará x, el mejor pronóstico que se puede realizar del valor que tomará Y es el valor esperado, calculado desde luego a partir de la distribución condicional correspondiente. Por lo tanto, si se sabe que X=x0, el valor pronosticado para Y estará dado por la media condicional de Y dado X=x0 27

28

Ejemplo media y varianza condicional

Independencia ●



En algunos experimentos aleatorios, el conocimiento de valores de X no cambia ninguna de las probabilidades asociadas con los valores de Y. Considere por ejemplo las variables aleatorias X y Y que denotan respectivamente el fy del acero y la velocidad del viento que afectan una estructura.

29

Independencia

30

Independencia

31

32

Independencia

Ejemplo independencia de FMPs

33

FMP categórica

34

Ejemplo FMP categórica

35

36

FMP categórica

Ejemplo FMP categórica

37

FMP multinomial

38

FMP multinomial

39

40

FMP multinomial

Ejemplo FMP multinomial

41

42

FMP multinomial

FMP multinomial en MATLAB ●

43

mnpdf

44

Propiedades de la FMP multinomial ●

Función de densidad de probabilidades conjunta

http://en.wikipedia.org/wiki/Multinomial_distribut ion

45

Propiedades de la FDP conjunta bivariada

46

Propiedades de la FDP conjunta

47

48

Ejemplo FDP conjunta

Ejemplo FDP conjunta

49

Función de densidad de probabilidades marginal

50

Ejemplo: FDP marginal Suponiendo que la alimentación de los atletas que practican determinado deporte, esta dada por la función

Donde X representa la cantidad de proteínas y Y la cantidad de minerales que debe consumir un atleta. Determinar las funciones marginales de probabilidad 51

52

Definición general de FDP marginal

Ejemplo: FDP marginal

53

Ejemplo FDP marginal

54

FDP condicional

55

56

Propiedades de la FDP condicional

Ejemplo FDP condicional

57

FDP condicional

58

Media y varianza condicional Si X y Y son dos variables aleatorias conjuntas y se conoce con certeza el valor que tomará x, el mejor pronóstico que se puede realizar del valor que tomará Y es el valor esperado, calculado desde luego a partir de la distribución condicional correspondiente. Por lo tanto, si se sabe que X=x0, el valor pronosticado para Y estará dado por la media condicional de Y dado X=x0 59

60

Media y varianza condicional

Ejemplo media y varianza condicional

61

62

63

64

Independencia

Independencia

65

Independencia

66

Ejemplo independencia de FDPs

67

68

69

70

Función de distribución acumulada conjunta

71

72

Propiedades de las FDAs conjuntas

Relación entre las FDAs y FDPs conjuntas En el caso continuo, la densidad de probabilidad fXY(x,y) se obtiene derivando la función de probabilidad con respecto a sus argumentos:

73

El teorema de Bayes

74

Valor esperado

75

76

77

78

79

80

81

82

83

84

x

85

La mediana en varias dimensiones: el punto central (centerpoint)

86

Momentos para FDPs bivariadas

La mediana se puede generalizar a datos en dos o más dimensiones. Dado un conjunto de puntos, cualquier hiperplano que contiene el punto central, divide a los puntos en dos partes aproximadamente iguales: la parte más pequeña debe tener a lo más 100/(d+1) por ciento de los puntos. Al igual que la media, el punto central no necesita ser uno de los puntos. Ver http://en.wikipedia.org/wiki/Centerpoint_(geometry) 87

88

Valor esperado e independencia

Covarianza La covarianza es una medida de como dos variables aleatorias cambian juntas.

Se cumple que:

89

Dado un conjunto de números, la covarianza se puede estimar como:

Otra manera de calcular la covarianza es

El cálculo a través de esta fórmula es mucho más rápido, ya que no se tiene que restar las medias de todos los datos.

NOTA: en ocasiones se utiliza como denominador . En este caso se suele denominar la cuasi-covarianza.

Ejemplo covarianza ● ●



Ejemplo 2 covarianza

FALTA PONER MUCHOS DATOS Y HACER GRAFICO. INTERPRETAR EL SIGNO DE LA COVARIANZA Conclusión: La covarianza es positiva si existe una relación (lineal) creciente y negativa si existe una relación decreciente.

Notas sobre la covarianza La covarianza es una medida de la variabilidad conjunta de dos variables aleatorias X e Y. De esta forma, la covarianza es una medida de asociación entre los valores de X y de Y y sus respectivas dispersiones. Si por ejemplo, se tiene una alta probabilidad de que valores positivos de X se encuentren asociados con valores positivos de Y, la covarianza será positiva. Por otro lado, si exite una alta probabilidad de que valores postivos de X se encuentren asociados con valores negativos de Y o viceversa, la covarianza será negativa.

Matriz de covarianza Si los elementos del vector columna Son variables aleatorias, cada una con varianza finita, entonces, la matriz de covarianza Σ es la matriz cuyo elemento es la covarianza Donde es el valor esperado de el elemento i del vector X

Matriz de covarianza

Ejemplo matriz de covarianza

Es decir,

En otras palabras,

Covarianza en MATLAB ●

La matriz de covarianza se calcula con el comando cov

Covarianza en MS EXCEL En MS EXCEL se calcula con el comando COVAR









La covarianza es una medida de la asociación lineal entre las variables aleatorias Si la relación entre las variables aleatorias no es lineal, la covarianza podría ser no sensible a la relación





Si cov(X,Y) > 0 hay dependencia directa (positiva), es decir, a grandes valores de x corresponden grandes valores de y. Si cov(X,Y) = 0 se interpreta como la no existencia de una relación lineal entre las dos variables estudiadas; en este caso se dice que las variables son no correlacionadas. Si cov(X,Y) < 0 hay dependencia inversa o negativa, es decir, a grandes valores de x corresponden pequeños valores de y.

Sus dimensiones son: dimensión de X por dimensión de Y

Covarianza e independencia Si X y Y son variables aleatorias independientes,

Lo contrario no es en general verdadero.

Propiedades de la covarianza ●

Si X, Y, W y V son variables aleatorias reales y a, b, c y d son constantes, entonces:





Para secuencias y de variables aleatorias, se tiene que:

Para una secuencia de variables aleatorias, y constantes se tiene que para su combinación lineal:

106

Propiedades de la matriz de covarianza

107

Coeficiente de correlación ●





La correlación indica la fuerza y dirección de una relación lineal entre dos variables aleatorias. Esto se debe contrastar con el uso coloquial en el lenguaje, que denota cualquier relación, no necesariamente lineal.



Existen varios coeficientes que miden el grado de correlación: Pearson, Spearman, Kendall. ●

Coeficiente de correlación de Pearson

Observe que la correlación refleja la cantidad de ruido y dirección de una relación lineal (arriba), pero no la pendiente (medio) ni tampoco relaciones no lineales (abajo). Nota: la figura en el centro tiene una correlación 0 porque var(Y)=0 (Y es constante)

Coeficiente de correlación: motivación Si por ejemplo las unidades de la variable X son centimetros y las unidades de la variable Y son gramos, entonces las unidades de la covarianza son cm×g y si cambiamos la escala de las variables, cambia la covarianza. Esto hace que el valor de la covarianza sea difícil de interpretar. Una medida normalizada es la correlación.

Nota: a pesar de su nombre, fue introducida por Francis Galton en 1880

Propiedades de la correlación ●





EJEMPLO COEF CORREL

Si dos variables aleatorias X y Y son independientes, entonces su correlación es 0. Lo contrario no siempre es verdad. El coeficiente de correlación es una cantidad adimensional que toma un valor entre -1 y 1. Si no existe una relación lineal entre las variables, el coeficiente de correlación es aproximadamente cero.

Correlación en MATLAB

Correlación en MS EXCEL ●

PEARSON Devuelve el coeficiente de correlación producto o momento r de Pearson, r, un índice adimensional acotado entre -1,0 y 1,0 que refleja el grado de dependencia lineal entre dos conjuntos de datos.

Correlación en MS EXCEL

Correlación en MS EXCEL ● ●

COEFICIENTE.R2 Devuelve el cuadrado del coeficiente de correlación de momento del producto Pearson mediante los puntos de datos de X y Y. El valor R cuadrado puede interpretarse como la proporción de la varianza de Y que puede atribuirse a la varianza de X.

COEF.DE.CORREL: devuelve el coeficiente de correlación entre dos rangos de celdas definidos por los argumentos matriz1 y matriz2.

Observe que ambas funciones retornan los mismos valores





Dada la FPD mostrada, calcule la correlación y el coeficiente de variación de las variables aleatorias X y Y:

El problema será solucionado en MAXIMA

Cum hoc ergo propter hoc ("juntamente con esto, luego a consecuencia de esto")



La correlación entre dos variables no implica, por sí misma, ninguna relación de causalidad ●

http://xkcd.com/552/

Se ha observado que en los últimos 300 años el número de piratas ha decrecido, sin embargo, ha habido un incremento en el calentamiento global. Conclusión (errónea): el calentamiento global es causado por la disminución de piratas.







Una investigación científica concluye que la gente que usa cannabis (A) tiene un mayor riesgo de desarrollar una enfermedad psiquiátrica. (B) Esta correlación es a veces empleada para apoyar la teoría de que el uso de cannabis causa una enfermedad psiquiátrica (A es la causa de B). A pesar de que esto podría ser verdad, no podemos automáticamente percibir una relación causa-efecto de un estudio que sólo ha mostrado que aquellos que usan cannabis son más propensos a tener enfermedades psiquiátricas. De este mismo estudio se puede concluir que –

tener una predisposición a una enfermedad psiquiátrica causa el uso de cannabis (B causa A), o



que un tercer factor (por ejemplo, la pobreza) es la verdadera causa de haber encontrado un gran número de gente (comparado con el público en general) que usa cannabis y sufre un desorden mental.

Asumir que A causa B es tentador, pero se necesita otra investigación científica que pueda aislar extrañas variables cuando la actual sólo ha determinado una correlación estadística.

Los niños que duermen con la luz encendida son más propensos a desarrollar miopía en la edad adulta. Ésta fue la conclusión de un estudio del centro médico de la Universidad de Pensilvania, publicada el 13 de mayo de 1999 en la revista Nature, y que tuvo gran repercusión en la prensa de la época. Sin embargo, un posterior estudio de la Universidad Estatal de Ohio no encontró ningún enlace entre el hecho de que niños durmiendo con la luz encendida y el desarrollo de miopía, pero sí que encontró una fuerte relación entre la miopía parental y el desarrollo en los niños de este defecto, y también observó que los padres miopes tenían una mayor tendencia a dejar las luces encendidas en las habitaciones de sus hijos

FPD normal multivariada

FDP normal bivariada

FDP normal bivariada. Influencia del parámetro ρXY

FDA normal bivariada

EJEMPLO FDP NORMAL ●

Insertar los programas de MATLAB con los que se hicieron los gráficos anteriores.

EJEMPLO 2



FALTA



USAR MATLAB MVNPDF y MVNCDF

Notas con respecto a la FDP normal multivariada

COPULAS

Teorema de Sklar

Una cópula es una FDA multivariada, Tal que todas sus funciones de distribución marginal son uniformes en el intervalo [0,1].

Funciones relaciones con cópulas en MATLAB

EJEMPLO



copulacdf



http://en.wikipedia.org/wiki/Joint_probability_distributio



copulapdf



http://en.wikipedia.org/wiki/Marginal_distribution



copularnd



http://en.wikipedia.org/wiki/Conditional_distribution



copulastat





copulaparam



copulademo