Curso intermedio de PROBABILIDAD

Curso intermedio de PROBABILIDAD Luis Rinc´ on Departamento de Matem´aticas Facultad de Ciencias UNAM Circuito Exterior de CU 04510 M´exico DF Mayo 20...
0 downloads 1 Views 1MB Size
Curso intermedio de PROBABILIDAD Luis Rinc´ on Departamento de Matem´aticas Facultad de Ciencias UNAM Circuito Exterior de CU 04510 M´exico DF Mayo 2005

El presente texto corresponde a la versi´on electr´ onica de mayo de 2005, si han transcurrido m´ as de tres meses desde entonces seguramente existir´ a una versi´on corregida y aumentada disponible en http://www.matematicas.unam.mx/lars

Prefacio El presente texto est´ a dirigido a estudiantes de mitad de carrera de las licenciaturas de matem´ aticas, actuar´ıa y a´reas afines. Contiene el material b´ asico para un curso intermedio de probabilidad y tiene como origen las notas de clase del curso semestral de Probabilidad II impartido por el autor en la Facultad de Ciencias de la UNAM a lo largo de varios semestres. El texto contiene una gran cantidad de ejercicios la mayor´ıa de los cuales son de tipo mec´ anico, algunos de ellos son muy sencillos y en otros se pide reproducir lo realizado antes, de modo que el t´ermino “ejercicios” me parece justo y adecuado. La intenci´ on es la de crear confianza y soltura por parte del alumno en el manejo de los conceptos y notaci´ on involucrados. El n´ umero de ejercicios excede lo que normalmente puede realizarse en un semestre y el objetivo que siempre tuve en mente estos a˜ nos fue el tener un n´ umero suficiente de ellos para presentar algunos en clase, dejar otros para trabajo en casa y asignar algunos otros para preguntas de examen, usando material ligeramente distinto cada semestre para evitar repeticiones. Los ejercicios se encuentran regularmente al final de cada secci´ on y se han numerado de manera consecutiva a lo largo del curso. Al final del texto aparece una lista de referencias que me permito sugerir al lector consultar para profundizar y a veces precisar en algunos temas. Algunos de estos textos no han sido referenciados expl´ıcitamente pero aparecen en la lista por que en alg´ un momento he obtenido inspiraci´ on de ellos. Me disculpo de antemano por cualquier error u omisi´ on y agradezco sinceramente cualquier correcci´ on o comentario en el correo electr´ onico que aparece abajo. Luis Rinc´ on Mayo 2005 Ciudad Universitaria UNAM [email protected]

1

Contenido 1. Espacios de probabilidad 1.1. Espacios de probabilidad . . . . . 1.2. σ-´ algebras . . . . . . . . . . . . . 1.2.1. Conjuntos de Borel . . . . 1.2.2. Sucesiones de eventos . . 1.3. Medidas de probabilidad . . . . . 1.3.1. Propiedades elementales . 1.3.2. Continuidad . . . . . . . . 1.3.3. Independencia de eventos 1.3.4. Lema de Borel-Cantelli .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

. . . . . . . . .

4 4 5 11 14 20 23 28 32 34

2. Variables aleatorias 2.1. Variables aleatorias . . . . . . 2.2. Funci´ on de distribuci´ on . . . 2.3. Tipos de variables aleatorias . 2.4. Integral de Riemann-Stieltjes 2.5. Caracter´ısticas num´ericas . . 2.5.1. Esperanza . . . . . . . 2.5.2. Varianza . . . . . . . . 2.5.3. Momentos . . . . . . . 2.6. Distribuciones discretas . . . 2.7. Distribuciones continuas . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

. . . . . . . . . .

36 36 44 50 53 55 55 59 61 63 70

3. Vectores aleatorios 3.1. Vectores aleatorios . . . . . . . . . . . . . . . . . 3.2. Distribuci´ on conjunta . . . . . . . . . . . . . . . 3.3. Densidad conjunta . . . . . . . . . . . . . . . . . 3.4. Distribuci´ on marginal . . . . . . . . . . . . . . . 3.5. Distribuci´ on condicional . . . . . . . . . . . . . . 3.6. Independencia de variables aleatorias . . . . . . . 3.7. Esperanza condicional . . . . . . . . . . . . . . . 3.8. Varianza condicional . . . . . . . . . . . . . . . . 3.9. Esperanza de una funci´ on de un vector aleatorio 3.10. Covarianza . . . . . . . . . . . . . . . . . . . . . 3.11. Coeficiente de correlaci´ on . . . . . . . . . . . . . 3.12. Esperanza y varianza de un vector aleatorio . . . 3.13. Distribuciones multivariadas discretas . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

. . . . . . . . . . . . .

80 80 81 84 87 88 91 95 98 99 102 105 110 111

2

. . . . . . . . . .

. . . . . . . . . .

3.14. Distribuciones multivariadas continuas . . . . . . . . . . . . . 112 4. Transformaciones 4.1. Transformaci´ on de una variable aleatoria . . . 4.2. Transformaci´ on de un vector aleatorio . . . . 4.2.1. Distribuci´ on de la suma (convoluci´ on) 4.2.2. Distribuci´ on de la resta . . . . . . . . 4.2.3. Distribuci´ on del producto . . . . . . . 4.2.4. Distribuci´ on del cociente . . . . . . . . 5. Distribuciones muestrales y estad´ısticas 5.1. Distribuciones muestrales . . . . . . . . 5.2. Estad´ısticas de orden . . . . . . . . . . . 5.2.1. Distribuciones individuales . . . 5.2.2. Distribuci´ on conjunta . . . . . .

de . . . . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

. . . . . .

114 114 116 118 122 124 126

orden . . . . . . . . . . . . . . . .

. . . .

. . . .

. . . .

. . . .

. . . .

. . . .

130 131 140 141 145

. . . . . . . .

150 . 150 . 151 . 152 . 153 . 154 . 154 . 156 . 160

. . . . . .

. . . . . .

6. Convergencia 6.1. Convergencia puntual . . . . . . . . . . . . . . . . 6.2. Convergencia casi segura . . . . . . . . . . . . . . . 6.3. Convergencia en probabilidad . . . . . . . . . . . . 6.4. Convergencia en media . . . . . . . . . . . . . . . . 6.5. Convergencia en media cuadr´ atica . . . . . . . . . 6.6. Convergencia en distribuci´ on . . . . . . . . . . . . 6.7. Relaciones generales entre los tipos de convergencia 6.8. Dos resultados importantes de convergencia . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

. . . . . . . .

7. Funciones generadoras 162 7.1. Funci´ on generadora de probabilidad . . . . . . . . . . . . . . 162 7.2. Funci´ on generadora de momentos . . . . . . . . . . . . . . . . 166 7.3. Funci´ on caracter´ıstica . . . . . . . . . . . . . . . . . . . . . . 171 8. Teoremas l´ımite 178 8.1. Desigualdades de Markov y de Chebyshev . . . . . . . . . . . 178 8.2. Ley de los grandes n´ umeros . . . . . . . . . . . . . . . . . . . 183 8.3. Teorema del l´ımite central . . . . . . . . . . . . . . . . . . . . 185 A. Distribuciones de probabilidad

188

B. Formulario

193

C. Tabla de la distribuci´ on normal est´ andar

196

3

Cap´ıtulo 1

Espacios de probabilidad La teor´ıa de la probabilidad es la parte de las matem´ aticas que se encarga del estudio de los fen´ omenos o experimentos aleatorios. Se entiende por experimento aleatorio todo aquel experimento tal que cuando se le repite bajo las mismas condiciones iniciales, el resultado que se obtiene no siempre es el mismo. A menudo y por muy diversas razones es necesario aceptar que no es posible predecir el resultado de un experimento particular y en consecuencia se considera aleatorio. Bajo estas circunstancias, la teor´ıa de la probabilidad tiene el objetivo de modelar matem´ aticamente cualquier experimento aleatorio de inter´es.

1.1.

Espacios de probabilidad

El modelo matem´ atico creado durante el primer tercio del siglo XX para estudiar los experimentos aleatorios es el as´ı llamado espacio de probabilidad. Este modelo consiste de una terna ordenada, denotada usualmente por (Ω, F, P ), en donde Ω es un conjunto arbitrario, F es una σ-´ algebra de subconjuntos de Ω y P es una medida de probabilidad definida sobre F. Explicamos a continuaci´ on brevemente cada uno de estos elementos. Espacio muestral. El conjunto Ω es llamado espacio muestral o espacio muestra y tiene como objetivo agrupar a todos los posibles resultados del experimento aleatorio en cuesti´ on. No es imprescindible darle esta interpretaci´ on al conjunto Ω y matem´ aticamente se le considera entonces un conjunto arbitrario. σ-´ algebras. Una clase o colecci´ on no vac´ıa F de subconjuntos de Ω es una σ´algebra si es cerrada bajo las operaciones de tomar complementos y uniones numerables. A los elementos de una σ-´ algebra se les llama ”eventos” o ”conjuntos medibles”. En particular, un evento es ”simple” si consta de a lo m´ as 4

un elemento de Ω y es ”compuesto” cuando consta de dos o m´ as elementos de Ω. Medidas de probabilidad. Una funci´ on P definida sobre una σ-´ algebra F y con valores en [0, 1] es una medida de probabilidad si P (Ω) = 1 y es σ-aditiva, es decir, ∞ ∞ [ X P( An ) = P (An ). n=1

n=1

cuando A1 , A2 , . . . ∈ F son ajenos dos a dos. El n´ umero P (A) representa una forma de medir la ”posibilidad”de observar la ocurrencia del evento A al efectuar una vez el experimento aleatorio. Tenemos entonces formalmente la siguiente definici´ on.

Definici´ on 1 Un espacio de probabilidad es una terna (Ω, F, P ) en donde Ω es un conjunto arbitrario, F es una σ-´ algebra de subconjuntos de Ω y P : F → [0, 1] es una medida de probabilidad.

En este primer cap´ıtulo se estudian con m´ as detalle los conceptos de σ´algebra y medida de probabilidad.

1.2.

σ-´ algebras

En esta secci´ on se estudia el concepto de σ-´ algebra y se define la m´ınima σ-´ algebra generada por una colecci´ on arbitraria. Recordemos nuevamente la definici´ on de esta estructura.

Definici´ on 2 Una colecci´ on F de subconjuntos de Ω es una σ-´ algebra si cumple las siguientes condiciones. 1. Ω ∈ F. 2. Si A ∈ F entonces Ac ∈ F. 3. Si A1 , A2 , . . . ∈ F entonces

∞ [

n=1

An ∈ F.

A la pareja (Ω, F) se le llama “espacio medible” y a los elementos de F se les llama “eventos” o “conjuntos medibles”.

En palabras, una σ-´ algebra es una colecci´ on de subconjuntos de Ω que es no vac´ıa y cerrada bajo las operaciones de tomar complemento y efectu5

ar uniones infinitas numerables. De esta forma al conjunto Ω se le puede asociar una colecci´ on F de subconjuntos de s´ı mismo. En general existen varias σ-´ algebras que pueden asociarse a un conjunto Ω como se muestra a continuaci´ on. Ejemplo 1 Sea Ω un conjunto cualquiera. Los siguientes son ejemplos sencillos de σ-´ algebras de subconjuntos de Ω. 1. F1 = {∅, Ω}. 2. F2 = {∅, A, Ac , Ω}, en donde A ⊆ Ω. 3. F3 = 2Ω (conjunto potencia). Es f´ acil ver que las tres condiciones de la definici´ on de σ-´ algebra se cumplen para cada caso en el ejemplo anterior. La σ-´ algebra del inciso (1) es la σ´algebra m´ as peque˜ na que podemos asociar a un conjunto cualquiera Ω, y la σ-´ algebra del inciso (3) es la m´ as grande. En la Figura 1.1 puede observarse gr´ aficamente una σ-´ algebra como una colecci´ on de subconjuntos de Ω. Veamos otro ejemplo. Ejemplo 2 Sean A y B subconjuntos de Ω tales que A ⊆ B. Entonces la colecci´ on F = {∅, A, B, Ac , B c , B − A, (B − A)c , Ω} es una σ-´ algebra de subconjuntos de Ω que contiene expl´ıcitamente a los conjuntos A y B. Esto puede verificarse directamente con la ayuda de un diagrama de Venn.

Figura 1.1: Una σ-´algebra F = {A, B, C, D, E, . . .} es una colecci´on no vac´ıa de subconjuntos de Ω que es cerrada bajo complementos y uniones numerables. En la secci´ on de ejercicios se pueden encontrar algunos otros ejemplos de σ-´ algebras. El uso de la letra F para denotar una σ-´ algebra proviene del nombre en ingl´es “field” que significa “campo”. En algunos textos se usa 6

tambi´en la letra A, proveniente de la palabra “´ algebra”, para denotar una σ-´ algebra tambi´en llamada σ-campo. Observe el uso y significado de los s´ımbolos de contenci´ on y pertenencia: A ⊆ Ω y A ∈ F. Se demuestran a continuaci´ on algunas otras propiedades que satisface cualquier σ-´ algebra. Proposici´ on 1 Sea F una σ-´ algebra de subconjuntos de Ω. Entonces 1. ∅ ∈ F. 2. Si A1 , A2 , . . . ∈ F entonces

∞ \

i=1

Ai ∈ F.

3. Si A, B ∈ F entonces A − B ∈ F. 4. Si A, B ∈ F entonces A△B ∈ F. Demostraci´ on. (1) Como Ω ∈ F y F es una colecci´ on cerrada bajo complec = ∅ ∈ F. (2) Si A , A , . . . ∈ F entonces Ac , Ac , . . . ∈ F. mentos entonces Ω 1 2 1 2 S c Por lo tanto ∞ n=1 An ∈ F. Tomando complementos y usando las leyes de De Morgan se obtiene !c ∞ ∞ \ [ c An ∈ F. An = n=1

n=1

(3) Como A − B = A ∩ B c , de lo anterior se concluye que A − B ∈ F. (4) Se escribe A△B = (A − B) ∪ (B − A). Esto demuestra que A△B ∈ F cuando A, B ∈ F.  La proposici´ on anterior establece entonces que las σ-´ algebras son estructuras tambi´en cerradas bajo las operaciones de diferencia e intersecciones numerables. En la secci´ on de ejercicios pueden encontrarse algunas otras definiciones de σ-´ algebra equivalentes a la que hemos enunciado y que involucran las operaciones de la proposici´ on anterior. Una operaci´ on de particular importancia es aquella en la que se intersectan dos σ-´ algebras produciendo una nueva σ-´ algebra. Este es el contenido del siguiente resultado. Proposici´ on 2 La intersecci´ on de dos σ-´ algebras es una σ-´ algebra. Demostraci´ on. Sean F1 y F2 dos σ-´ algebras de subconjuntos de Ω. Entonces F1 ∩F2 es aquella colecci´ on de subconjuntos de Ω cuyos elementos pertenecen tanto a F1 como a F2 . Demostraremos que F1 ∩ F2 es una σ-´ algebra. (1) Como F1 y F2 son σ-´ algebras entonces Ω ∈ F1 y Ω ∈ F2 . Por lo tanto Ω ∈ F1 ∩ F2 . (2) Sea A un elemento en F1 ∩ F2 . Entonces A ∈ F1 y A ∈ F2 . Por lo tanto Ac ∈ F1 y Ac ∈ F2 , es decir, Ac ∈ F1 ∩ F2 . (3) Sea A1 , A2 , . . . una sucesi´ on de elementos en F1 ∩ F2 . Entonces A1 , A2 , . . . ∈ F1 7

y A1 , A2 , . . . ∈ F2 . Por lo tanto S ∞ n=1 An ∈ F1 ∩ F2 .

S∞

n=1 An

∈ F1 y

S∞

n=1 An

∈ F2 , es decir, 

En general no es cierto que la uni´ on de dos σ-´ algebras produce una nueva σ-´ algebra. V´ease por ejemplo el Ejercicio 13 en la p´ agina 10. Por otro lado se puede extender la validez de la proposici´ on reci´en demostrada a intersecciones m´ as generales como indica el siguiente resultado. Proposici´ on 3 La intersecci´ on finita, infinita numerable o bien arbitraria de σ-´ algebras es nuevamente una σ-´ algebra. Demostraci´ on. Sea T un conjunto arbitrario. Suponga que T para cada t en T se tiene una σ-´ algebra Ft de subconjuntos de Ω. Sea F = t∈T Ft . Siguiendo los mismos pasos que en la demostraci´ on anterior es f´ acil probar que F es una σ-´ algebra. Observe que como T es un conjunto arbitrario, la σ-´ algebra F es efectivamente una intersecci´ on arbitraria de σ-´ algebras.  El resultado anterior garantiza que la siguiente definici´ on tiene sentido.

Definici´ on 3 Sea C una colecci´ on no vac´ıa de subconjuntos de Ω. La σa ´lgebra generada por C, denotada por σ(C), es la colecci´ on \ σ(C) = {F : F es σ-´ algebra y C ⊆ F}. Por la proposici´ on anterior sabemos que σ(C) es una σ-´ algebra pues es la intersecci´ on de todas aquellas σ-´ algebras que contienen a C. Tambi´en se le llama “m´ınima σ-´ algebra generada” por C y el adjetivo “m´ınima” es claro a partir del hecho de que σ(C) es la σ-´ algebra m´ as peque˜ na que contiene a la colecci´ on C. Es decir, si F es una σ-´ algebra que contiene a C entonces forzosamente σ(C) ⊆ F. Observe que C ⊆ σ(C) pues a la colecci´ on C se le han a˜ nadido posiblemente algunos otros subconjuntos para convertirla en la σ-´ algebra σ(C). Ejemplo 3 Sean A, B ⊆ Ω con A ∩ B = ∅. Defina la colecci´ on C = {A, B}. En general esta colecci´ on no es una σ-´ algebra pero podemos a˜ nadirle algunos subconjuntos de Ω para encontrar la σ-´ algebra generada por C. Esto es σ(C) = {∅, A, B, (A ∪ B)c , A ∪ B, Ac , B c , Ω}.

No es dif´ıcil verificar que ´esta es la m´ınima σ-´ algebra que contiene a la colecci´ on C. Los siguientes dos resultados son proposiciones sencillas y naturales acerca de σ-´ algebras generadas. Las demostraciones son cortas pero requieren algunos momentos de pensamiento en una primera lectura. 8

Proposici´ on 4 Sean C1 y C2 dos colecciones de subconjuntos de Ω tales que C1 ⊆ C2 . Entonces σ(C1 ) ⊆ σ(C2 ). Demostraci´ on. Claramente C1 ⊆ C2 ⊆ σ(C2 ). Entonces σ(C2 ) es una σ-´ algebra que contiene a la colecci´ on C1 . Por lo tanto σ(C1 ) ⊆ σ(C2 ).  Proposici´ on 5 Si F es una σ-´ algebra entonces σ(F) = F. Demostraci´ on. Sabemos que F ⊆ σ(F). Como F es una σ-´ algebra que contiene a F entonces σ(F) ⊆ F. Esto demuestra la igualdad.  En la siguiente secci´ on se estudia un ejemplo importante de una σ-´ algebra de subconjuntos de los n´ umeros reales: la σ-´ algebra de Borel.

EJERCICIOS 1. Defina con precisi´ on y de manera completa los siguientes conceptos: σ-´ algebra, espacio medible, evento, evento simple y evento compuesto. 2. Definici´ on alternativa de σ-´ algebra. Demuestre que F es una σ-´ algebra de subconjuntos de Ω si y solo si a) ∅ ∈ F.

b) A ∈ F ⇒ Ac ∈ F. c) A1 , A2 , . . . ∈ F ⇒

∞ \

n=1

An ∈ F.

3. Definici´ on alternativa de σ-´ algebra. Demuestre que F es una σ-´ algebra de subconjuntos de Ω si y solo si a) Ω ∈ F.

b) A, B ∈ F ⇒ A − B ∈ F. ∞ \ c) A1 , A2 , . . . ∈ F ⇒ An ∈ F. n=1

4. Sean A1 , A2 , . . . , An eventos de un espacio muestral Ω. Demuestre que el conjunto de elementos de Ω que pertenecen a exactamente k de estos eventos es un evento, 1 ≤ k ≤ n. 5. Sea F una σ-´ algebra de subconjuntos de Ω. Demuestre que la colecci´ on F c = {F c : F ∈ F} es una σ-´ algebra. Compruebe adem´ as que F c = F.

9

6. Sea (Ω, F, P ) un espacio de probabilidad. Defina la colecci´ on G = {F ∈ F : P (F ) = 0 o´ P (F ) = 1}. Demuestre que G es una sub σ-´ algebra de F. 7. Sea Ω = {a, b, c, d} y sean A = {a, b} y B = {b, c}. Defina la colecci´ on C = {A, B}. Claramente C no es una σ-´ algebra. Encuentre σ(C). 8. Sea F una σ-´ algebra de subconjuntos de Ω y sea A un elemento de F. Demuestre que la siguiente colecci´ on es una σ-´ algebra de subconjuntos de A, FA = A ∩ F = {A ∩ F : F ∈ F}. 9. Sea Ω un conjunto no numerable. Demuestre que la siguiente colecci´ on es una σ-´ algebra, F = {A ⊆ Ω : A o Ac es finito o numerable}. 10. Sea X : Ω1 → Ω2 una funci´ on en donde (Ω2 , F2 ) es un espacio medible. Demuestre que la siguiente colecci´ on es una σ-´ algebra de subconjuntos de Ω1 , X −1 F2 = {X −1 F : F ∈ F2 }. 11. Sean F1 y F2 dos σ-´ algebras de subconjuntos de Ω. Demuestre que F1 ∩ F2 es una σ-´ algebra de subconjuntos de Ω. 12. Sea {Fn : n ∈ N} una sucesi´ on de σ-´ algebras T∞de subconjuntos de un mismo espacio muestral Ω. Demuestre que n=1 Fn es una σ-´ algebra. 13. Sean F1 y F2 dos σ-´ algebras de subconjuntos de Ω. Demuestre que F1 ∪ F2 no necesariamente es una σ-´ algebra. Sugerencia: Considere el espacio Ω = {1, 2, 3} y F1 = {∅, {1}, {2, 3}, Ω} y F2 = {∅, {1, 2}, {3}, Ω}. 14. Sean F1 y F2 dos σ-´ algebras de subconjuntos de Ω tales que F1 ⊆ F2 . Demuestre que F1 ∪ F2 es una σ-´ algebra. 15. Sea J un conjunto arbitrario de ´ındices. Suponga que para cada j en J algebra Fj de subconjuntos de Ω. Demuestre que T se tiene una σ-´ F es una σ-´ a lgebra. j∈J j 16. Sea F una σ-´ algebra. Demuestre que σ(F) = F.

17. Sea C una colecci´ on de subconjuntos de Ω. Demuestre que σ(σ(C)) = σ(C). 18. Sean C1 y C2 dos colecciones de subconjuntos de Ω tales que C1 ⊆ C2 . Demuestre que σ(C1 ) ⊆ σ(C2 ). 19. Sean A, B ⊆ Ω arbitrarios. Demuestre que la cardinalidad de σ{A, B} es a lo sumo 16.

10

20. Sean A, B ⊆ Ω arbitrarios. Encuentre expl´ıcitamente todos los elementos de σ{A, B}. Por el ejercicio anterior, el total de elementos en σ{A, B} en el caso m´ as general es 16. 21. Sea {A1 , . . . , An } una partici´ on finita de Ω. Demuestre que la cardinalidad de σ{A1 , . . . , An } es 2n . 22. Sea {A, B, C} una partici´ on de Ω. Encuentre expl´ıcitamente los ocho elementos de σ{A, B, C}. 23. Sea C una colecci´ on de subconjuntos de Ω. Diga falso o verdadero justificando en cada caso: C ⊆ σ(C) ⊆ 2Ω . 24. Demuestre que 2Ω es una σ-´ algebra de subconjuntos de Ω y que no existe una σ-´ algebra de subconjuntos de Ω que sea m´ as grande. 25. Sea F una σ-´ algebra de un espacio muestral finito. Demuestre que F contiene un n´ umero par de elementos. 26. Sea Ω un conjunto, F una σ-´ algebra de subconjuntos de Ω y A un evento. Determine cu´ al de las dos expresiones siguientes es notacionalmente correcta. Explique su respuesta. a) b) c) d)

1.2.1.

Ω∈F A∈Ω ∅∈F A∈F

´ o o ´ o ´ o ´

Ω ⊆ F. A ⊆ Ω. ∅ ⊆ F. A ⊆ F.

Conjuntos de Borel

Considere la colecci´ on de todos los intervalos abiertos (a, b) de R en donde a ≤ b. A la m´ınima σ-´ algebra generada por esta colecci´ on se le llama σ´algebra de Borel de R y se le denota por B(R). Definici´ on 4

B(R) = σ {(a, b) ⊆ R : a ≤ b}

A los elementos de B(R) se les llama “conjuntos de Borel” , “Borelianos” o “conjuntos Borel medibles”. De esta forma se puede asociar la σ-´ algebra B(R) al conjunto de n´ umeros reales y obtener as´ı el espacio medible (R, B(R)). Mediante algunos ejemplos se muestran a continuaci´ on algunos elementos de la σ-´ algebra B(R). Proposici´ on 6 Para cualesquiera n´ umeros reales a ≤ b, los subconjuntos [a, b], (a, ∞), (−∞, b), [a, b), (a, b], {a} son todos elementos de B(R). 11

Demostraci´ on. Primeramente observe que los intervalos cerrados [a, b] son conjuntos Borelianos pues podemos escribirlos en t´erminos de una intersecci´ on numerable de intervalos abiertos de la siguiente forma

[a, b] =

∞ \

n=1

1 1 , b + ). n n

(a −

Observe que cada elemento de la intersecci´ on anterior es un conjunto Boreliano. Siendo B(R) una σ-´ algebra, la intersecci´ on infinita es un elemento de B(R). De esta forma se concluye que cada intervalo cerrado [a, b] es un elemento de B(R). Asi mismo tenemos que (a, ∞) = y

(−∞, b) =

∞ [

n=1 ∞ [

n=1

(a, a + n) ∈ B(R), (b − n, b) ∈ B(R).

Por lo tanto [a, ∞) = y

(−∞, b] =

∞ \

n=1 ∞ \

(a −

1 , ∞) ∈ B(R), n

(−∞, b +

n=1

1 ) ∈ B(R). n

De forma an´ aloga se puede hacer ver que los intervalos semiabiertos de la forma [a, b) y (a, b] son conjuntos Borelianos. Los conjuntos que constan de un solo n´ umero tambi´en son conjuntos Borelianos pues {a} =

∞ \

n=1

(a −

1 1 , a + ). n n 

Complementos, intersecciones y uniones numerables de estos conjuntos son todos ellos Borelianos. Observe que la σ-´ algebra B(R) es muy amplia y es natural preguntarse acerca de la existencia de alg´ un subconjunto de R que no sea un conjunto Boreliano. La respuesta es afirmativa aunque no la demostraremos. Efectivamente, existe un subconjunto de R que no pertenece a B(R). Adem´ as de la definici´ on enunciada, existen otras formas equivalentes de generar a los conjuntos Borelianos. Este es el contenido del siguiente resultado. Proposici´ on 7 Las siguientes σ-´ algebras son todas id´enticas a B(R). 12

1. σ{[a, b] : a ≤ b}. 2. σ{(a, b] : a ≤ b}. 3. σ{[a, b) : a ≤ b}. 4. σ{(a, ∞) : a ∈ R}. 5. σ{(−∞, b) : b ∈ R}. Demostraci´ on. Se prueba u ´nicamente el inciso (1). El resto de los incisos se demuestra usando el mismo procedimiento. Para demostrar que B(R) = σ{[a, b] : a ≤ b} se verifican ambas contenciones. Claramente [a, b] ∈ B(R), por lo tanto {[a, b] : a ≤ b} ⊆ B(R). Entonces σ{[a, b] : a ≤ b} ⊆ σ(B(R)) = B(R). Ahora se demuestra S la contenci´ on contraria. Sabemos que (a, b) ∈ σ{[a, b] : 1 1 a ≤ b} pues (a, b) = ∞ [a + n=1 n , b − n ]. Entonces {(a, b) : a ≤ b} ⊆ σ{[a, b] : a ≤ b}.

Por lo tanto B(R) = σ{(a, b) : a ≤ b} ⊆ σ{[a, b] : a ≤ b}.  De manera equivalente se puede definir a B(R) como la m´ınima σ-´ algebra generada por una colecci´ on m´ as grande, aquella de todos los subconjuntos abiertos de R. En ambos casos la σ-´ algebra generada es B(R). Es posible considerar tambi´en la σ-´ algebra de conjuntos de Borel restringidos a una porci´ on de los n´ umeros reales como se indica a continuaci´ on. Definici´ on 5 Sea A ∈ B(R). La σ-´ algebra de Borel de A, denotada por B(A), se define como sigue B(A) = A ∩ B(R) = {A ∩ B : B ∈ B(R)}. No es dif´ıcil comprobar que B(A) es efectivamente una σ-´ algebra de subconjuntos de A. Observe que el nuevo conjunto total es A y no R. El concepto de σ-´ algebra de Borel de R puede extenderse a dimensiones mayores de la siguiente forma. Considere la colecci´ on C de todas los rect´ angulos abiertos 2 de R , es decir, C = {(a, b) × (c, d) : a ≤ b, c ≤ d}.

Se definen los conjuntos de Borel de R2 como los elementos de la m´ınima σ-´ algebra generada por la colecci´ on C, es decir, B(R2 ) = σ(C). De manera equivalente se puede definir B(R2 ) = σ(B(R) × B(R)). En forma an´ aloga se define B(Rn ) usando productos cartesianos de intervalos, o equivalentemente B(Rn ) = σ(B(R) × · · · × B(R)). 13

EJERCICIOS 27. Defina con precisi´ on a la σ-´ algebra de Borel de R y de Rn . 28. Demuestre que los conjuntos (a, b] y [a, b) con a ≤ b son Borel medibles. 29. Demuestre que N, Z y Q son elementos de B(R). 30. Demuestre que el conjunto de n´ umeros irracionales es un conjunto de Borel de R. 31. Demuestre que B(R) = σ{[a, b] : a ≤ b}. 32. Demuestre que B(R) = σ{(a, b] : a ≤ b}. 33. Demuestre que B(R) = σ{[a, b) : a ≤ b}. 34. Demuestre que B(R) = σ{(a, ∞) : a ∈ R}. 35. Demuestre que B(R) = σ{[a, ∞) : a ∈ R}. 36. Demuestre que B(R) = σ{(−∞, b) : b ∈ R}. 37. Demuestre que B(R) = σ{(−∞, b] : b ∈ R}. 38. Sea A ∈ B(R). Demuestre que B(A) es efectivamente una σ-´ algebra de subconjuntos de A. 39. Diga falso o verdadero. Justifique su respuesta. 1 , n1 ] : n ∈ N } = B(0, 1]. a) σ{ ( n+1

b) σ{ (0, n1 ] : n ∈ N } = B(0, 1].

1 , n1 ] : n ∈ N } = σ{ (0, n1 ] : n ∈ N }. c) σ{ ( n+1

40. Demuestre que B(R2 ) = σ{[a, b] × [c, d] : a ≤ b, c ≤ d}. 41. Demuestre que el producto cartesiano de dos σ-´ algebras no es necesariamente σ-´ algebra. Esto es, suponga que (Ω1 , F1 ) y (Ω2 , F2 ) son dos espacios medibles. Mediante un ejemplo muestre que F1 × F2 no necesariamente es una σ-´ algebra de subconjuntos del espacio producto Ω1 × Ω2 . Sin embargo se define la σ-´ algebra producto de la forma siguiente, F1 ⊗ F2 = σ(F1 × F2 ).

1.2.2.

Sucesiones de eventos

En esta secci´ on se estudia el concepto de convergencia de una sucesi´ on infinita de eventos. Para enunciar tal concepto necesitaremos antes la definiciones de l´ımite superior y l´ımite inferior que se establecen a continuaci´ on.

14

Definici´ on 6 Para una sucesi´ on de eventos {An : n ∈ N} se define el l´ımite superior y el l´ımite inferior como sigue 1. l´ım sup An = n→∞

2. l´ım inf An = n→∞

∞ ∞ [ \

Ak .

n=1 k=n ∞ ∞ \ [

Ak .

n=1 k=n

Tanto el l´ımite superior como el l´ımite inferior son operaciones bien definidas, es decir, el resultado siempre existe y es u ´nico. En cada caso el conjunto resultante es siempre un evento, es decir, un conjunto medible. Es sencillo comprobar que l´ım inf An ⊆ l´ım sup An . n→∞

n→∞

Tampoco es dif´ıcil verificar que un elemento pertenece al evento l´ım sup An n→∞

si y solo si pertenece a una infinidad1 de elementos de la sucesi´ on. Por otro lado un elemento pertenece al evento l´ım inf An si y solo si pertenece n→∞ a todos los elementos de la sucesi´ on excepto un n´ umero finito de ellos. Con estos antecedentes podemos ahora establecer la definici´ on de convergencia de una sucesi´ on infinita de eventos.

Definici´ on 7 (Convergencia de eventos) Sea {An : n ∈ N} una sucesi´ on de eventos. Si existe un evento A tal que l´ım inf An = l´ım sup An = A n→∞

n→∞

entonces se dice que la sucesi´ on converge al evento A y se escribe l´ım An = A.

n→∞

Para calcular el posible l´ımite de una sucesi´ on de eventos debemos entonces calcular el l´ımite superior y el l´ımite inferior y cuando el resultado de ambas operaciones coincida en el mismo evento entonces a tal resultado com´ un se le llama el l´ımite de la sucesi´ on. Por supuesto que no todas las sucesiones de eventos convergen. Mostramos a continuaci´ on que en particular toda sucesi´ on mon´ otona es convergente. M´ as adelante presentaremos algunos ejemplos concretos de sucesiones de eventos y en la secci´ on de ejercicios se encuentran algunos otros. 1

En textos de habla inglesa a menudo se escribe l´ım sup An = (An i.o.), en donde i.o. n→∞

significa “infinitely often”.

15

Proposici´ on 8 Sea {An : n ∈ N} una sucesi´ on mon´ otona de eventos. 1. Si A1 ⊆ A2 ⊆ · · · entonces l´ım An = n→∞

2. Si A1 ⊇ A2 ⊇ · · · entonces l´ım An = n→∞

∞ [

An .

∞ \

An .

n=1

n=1

Demostraci´ on. (1) Como la sucesi´ on es creciente, ∞ [

Ak =

Ak .

k=1

k=n

Por lo tanto

∞ [

∞ ∞ [ \

l´ım sup An = n→∞

= =

n=1 k=n ∞ ∞ [ \

Ak Ak

n=1 k=1 ∞ [

Ak .

k=1

Por otro lado

∞ \

Ak = An . Entonces

k=n

l´ım inf An = n→∞

=

∞ ∞ \ [

Ak

n=1 k=n ∞ [

An .

n=1

(2) La demostraci´ on es completamente an´ aloga al inciso anterior. En este caso como la sucesi´ on de eventos es decreciente se tiene que ∞ \

y

k=n ∞ [

Ak =

∞ \

Ak

k=1

Ak = An .

k=n



Ejemplo 4 Para cada n´ umero natural n sea An = [−1/n, 0] si n es impar y An = [0, 1/n] si n es par. Entonces l´ım sup An = n→∞

∞ ∞ [ \

Ak =

∞ \

n=1

n=1 k=n

16

[−1/n, 1/n] = {0}.

l´ım inf An = n→∞

∞ ∞ \ [

Ak =

∞ [

n=1

n=1 k=n

{0} = {0}.

Por lo tanto l´ım An = {0}. n→∞

El siguiente resultado establece que a partir de una sucesi´ on de eventos puede construirse otra sucesi´ on cuyos elementos son ajenos dos a dos y cuya uni´ on es la uni´ on de la sucesi´ on original. Este procedimiento de separaci´ on ser´ a de utilidad m´ as adelante. Proposici´ on 9 Sea {An : n ∈ N} una sucesi´ on de eventos. Sea B1 = A1 y para n ≥ 2 defina n−1 [ Ak . Bn = An − k=1

Entonces {Bn : n ∈ N} es una sucesi´ on de eventos con las siguientes propiedades. 1. Bn ⊆ An . 2. Bn ∩ Bm = ∅ si n 6= m. 3.

∞ [

n=1

Bn =

∞ [

An .

n=1

Demostraci´ on. El inciso (1) es evidente a partir de la definici´ on de Bn . Para demostrar (2) suponga n < m, entonces Bn ∩ Bm = (An − = (An ∩ = ∅.

n−1 [

k=1 n−1 \ k=1

Ak ) ∩ (Am − Ack ) ∩ (Am ∩

m−1 [

k=1 m−1 \

Ak )

Ack )

k=1

Ahora se demuestra (3) considerando cada contenci´ on por separado. S (⊆) Sea x en ∞ ındice n tal que xS∈ Bn ⊆ An . n=1 Bn . Entonces existe un ´ Por lo tanto x pertenece a An y entonces x pertenece a ∞ n=1 An . S∞ (⊇) Sea ahora x un elemento en n=1 An . Entonces existe un ´ındice n tal / An para que x ∈ An . Sea n0 el primer ´ındice S tal que x ∈ An0 y x ∈ n0 −1 − 1 ≤ n ≤ n0 − 1. Entonces x ∈ A . Por lo tanto x A = B n n n 0 0 n=1 S B . pertenece a ∞ n=1 n  17

EJERCICIOS 42. Sea {An : n ∈ N} una sucesi´ on de eventos. Demuestre que a) l´ım sup An es un evento. n→∞

b) l´ım inf An es un evento. n→∞

c) l´ım inf An ⊆ l´ım sup An . n→∞

n→∞

43. Demuestre que a) l´ım sup An = {ω ∈ Ω : ω ∈ An para una infinidad de valores de n}. n→∞

b) l´ım inf An = {ω ∈ Ω : ω ∈ An para toda n excepto un n´ umero finito de ellas}. n→∞

44. Suponga An ⊆ Bn para cada n en N. Demuestre que a) l´ım sup An ⊆ l´ım sup Bn . n→∞

n→∞

b) l´ım inf An ⊆ l´ım inf Bn . n→∞

n→∞

45. Demuestre que si A1 ⊆ A2 ⊆ · · · entonces l´ım An =

n→∞

∞ [

An .

n=1

46. Demuestre que si A1 ⊇ A2 ⊇ · · · entonces l´ım An =

n→∞

∞ \

An .

n=1

47. Sea {An : n ∈ N} una sucesi´ on de eventos. Demuestre que a) ( l´ım inf An )c = l´ım sup Acn . n→∞

n→∞

c

b) ( l´ım sup An ) = l´ım inf Acn . n→∞

n→∞

c) P ( l´ım inf An ) = 1 − P ( l´ım sup Acn ). n→∞

n→∞

d ) P ( l´ım sup An ) = 1 − P ( l´ım inf Acn ). n→∞

n→∞

48. Sea {An : n ∈ N} una sucesi´ on de eventos. Demuestre que a) l´ım An = A ⇐⇒ l´ım Acn = Ac . n→∞

n→∞

b) l´ım An = A ⇐⇒ l´ım 1An = 1A . n→∞

n→∞

49. Sea {an : n ∈ N} una sucesi´ on de n´ umeros no negativos convergente a a ≥ 0. Sea An = [0, an ]. Calcule l´ım inf An y l´ım sup An . n→∞

n→∞

50. Calcule el l´ımite superior e inferior para cada una de las siguientes sucesiones de eventos. Determine en cada caso si la sucesi´ on es convergente. 18

1 a) An = ( , 2 + (−1)n ). n b) An = {(x, y) : x2 + y 2 ≤ (1 + n1 )n }. nπ c) An = {(x, y) : x2 + y 2 ≤ 2 + sin( )}. 2 51. Demuestre que las siguientes sucesiones de eventos no son convergentes. a) An = ∅ si n es impar y An = Ω si n es par. 1 b) An = (0, 1 + (− )n ). 2 52. Suponga que l´ım An = A y l´ım Bn = B. Defina la sucesi´ on n→∞

n→∞

Cn =



An si n es impar, Bn si n es par.

Calcule el l´ımite superior e inferior de Cn y determine si la sucesi´ on es convergente. 53. Calcule el l´ımite superior e inferior para cada una de las siguientes sucesiones de eventos. Determine en cada caso si la sucesi´ on es convergente.  A si n es impar, a) Sea A un evento. Defina An = Ac si n es par.  A si n es impar, b) Sean A y B dos eventos. Defina An = B si n es par. 54. Suponga que l´ım An = A. Demuestre que para cualquier evento B, n→∞

a) l´ım (An ∩ B) = A ∩ B. n→∞

b) l´ım (An ∪ B) = A ∪ B. n→∞

c) l´ım (An − B) = A − B. n→∞

d ) l´ım (An △B) = A△B. n→∞

55. Suponga que l´ım An = A y l´ım Bn = B. Demuestre que n→∞

n→∞

a) l´ım l´ım (An ∩ Bm ) = A ∩ B. n→∞ m→∞

b) l´ım l´ım (An ∪ Bm ) = A ∪ B. n→∞ m→∞

c) l´ım l´ım (An − Bm ) = A − B. n→∞ m→∞

d ) l´ım l´ım (An △Bm ) = A△B. n→∞ m→∞

56. Suponga que l´ım An = A y l´ım Bn = B. Diga falso o verdadero. n→∞ n→∞ Demuestre en cada caso. a) l´ım (An ∩ Bn ) = A ∩ B. n→∞

19

b) l´ım (An ∪ Bn ) = A ∪ B. n→∞

c) l´ım (An − Bn ) = A − B. n→∞

d ) l´ım (An △Bn ) = A△B. n→∞

1.3.

Medidas de probabilidad

En esta secci´ on y en lo que resta del presente cap´ıtulo se estudian algunas propiedades de las medidas de probabilidad. Empecemos por recordar nuevamente la definici´ on de este concepto.

Definici´ on 8 Sea (Ω, F) un espacio medible. Una “medida de probabilidad” es una funci´ on P : F → [0, 1] que satisface (Kolmogorov, 1933) 1. P (Ω) = 1. 2. P (A) ≥ 0, para cualquier A ∈ F. 3. Si A1 , A2 , . . . ∈ F son ajenos dos a dos, esto es, An ∩ Am = ∅ para ∞ ∞ X [ P (An ). An ) = n 6= m, entonces P ( n=1

n=1

Entonces toda funci´ on P definida sobre una σ-´ algebra F, con valores en el intervalo [0, 1] y que cumple los tres postulados anteriores se le llama “medida de probabilidad”. La tercera propiedad se conoce con el nombre de “σ-aditividad”. Se presentan a continuaci´ on tres ejemplos de medidas de probabilidad. Ejemplo 5 Considere un experimento aleatorio con espacio muestral un conjunto finito Ω. Asocie al conjunto Ω la σ-´ algebra el conjunto potencia 2Ω . Para cualquier A ⊆ Ω defina P (A) =

#A . #Ω

Entonces P es una medida de probabilidad y es llamada “probabilidad cl´ asica”. De acuerdo a esta definici´ on, para calcular la probabilidad de un evento es necesario entonces conocer su cardinalidad. En esta forma de calcular probabilidades surgen muchos y muy variados problemas de conteo, algunos de los cuales no son inmediatos de resolver. Ejemplo 6 Considere un experimento aleatorio con espacio muestral el conjunto de n´ umeros naturales N. Asocie al conjunto N la σ-´ algebra el con20

junto potencia 2N . Para cualquier A ⊆ N defina P (A) =

X 1 . 2n

n∈A

No es dif´ıcil verificar que P es efectivamente una medida de probabilidad. Ejemplo 7 Considere el espacio medible (R, B(R)). Sea f : R → R una funci´ on no negativa e integrable cuya integral sobre el intervalo (−∞, ∞) es uno. Para cualquier A en B(R) defina Z f (x) dx. P (A) = A

Las propiedades de la integral permiten demostrar que P es una medida de probabilidad. En la siguiente secci´ on estudiaremos algunas propiedades generales que cumple toda medida de probabilidad. Y a lo largo del texto estudiaremos varios modelos particulares para calcular probabilidades.

Figura 1.2: Andrey Nikolaevich Kolmogorov (Rusia 1903–1987).

EJERCICIOS 57. Escriba de manera completa la definici´ on de espacio de probabilidad, definiendo claramente cada uno de sus componentes. 58. Determine completamente un espacio de probabilidad (Ω, F, P ) para el experimento aleatorio de a) lanzar una moneda equilibrada. b) lanzar un dado equilibrado. 21

c) escoger al azar un n´ umero real dentro del intervalo unitario [0, 1]. d ) extraer dos bolas de una urna en donde hay dos bolas blancas y dos negras. e) lanzar una moneda honesta hasta obtener las dos caras. 59. Defina con precisi´ on el concepto de medida de probabilidad. 60. Sea {xn : n ∈ N} una sucesi´ on de n´ umeros reales. SeaP {an : n ∈ N} otra sucesi´ on de n´ umeros reales no negativos tal que ∞ n=1 an = 1. Defina la funci´ on P : B(R) → [0, 1] de la siguiente forma P (A) =

∞ X

n=1

an 1(xn ∈A) (n).

Demuestre que P es una medida de probabilidad. 61. Sean P y Q medidas de probabilidad definidas sobre una misma σalgebra. Demuestre que αP + (1 − α)Q es una medida de probabilidad ´ para cada α en [0, 1]. 62. Diga falso o verdadero y demuestre en cada caso. Si P es una medida de probabilidad entonces a) 1 − P es una medida de probabilidad. 1 b) (1 + P ) es una medida de probabilidad. 2 c) P 2 es una medida de probabilidad. 63. Considere el espacio medible (N, 2N ). Demuestre en cada caso que P es una medida de probabilidad. Para cada A ∈ 2N defina X 2 . a) P (A) = 3n n∈A

b) P (A) =

X 1 . 2n

n∈A

64. Sea Ω = {1, 2, . . . , n} y considere el espacio medible (Ω, 2Ω ). Investigue en cada caso si P es una medida de probabilidad. Para cada A ∈ 2Ω defina X 2k a) P (A) = . n(n + 1) k∈A

b) P (A) =

Y

k∈A

1 (1 − ). k

65. Considere el espacio medible ((0, 1), B(0, 1)). Demuestre en cada caso que P es una medida de probabilidad. Para cada A ∈ B(0, 1) defina Z 2x dx. a) P (A) = A

22

b) P (A) =

Z

A

3√ x dx. 2

66. Probabilidad condicional. Sea (Ω, F, P ) un espacio de probabilidad y sea B un evento con probabilidad estrictamente positiva. Demuestre que la probabilidad condicional definida para cada A en F como sigue P (A|B) =

P (A ∩ B) , P (B)

es una medida de probabilidad. En consecuencia toda propiedad v´ alida para P ( · ) es tambi´en v´ alida para P ( · |B). 67. Sea P una medida de probabilidad y sean P1 ( · ) = P ( · |B) y P2 ( · ) = P1 ( · |C). Demuestre que P2 (A) = P (A|B ∩ C).

1.3.1.

Propiedades elementales

A partir de los postulados enunciados en la secci´ on anterior es posible demostrar una larga serie de propiedades que cumplen todas las medidas de probabilidad. En esta secci´ on se estudian algunas propiedades elementales y m´ as adelante se demuestran otras propiedades m´ as avanzadas.

Proposici´ on 10 Sea P una medida de probabilidad. Entonces 1. P (Ac ) = 1 − P (A). 2. P (∅) = 0. 3. Si A ⊆ B entonces P (B − A) = P (B) − P (A). 4. Si A ⊆ B entonces P (A) ≤ P (B). 5. 0 ≤ P (A) ≤ 1. 6. P (A ∪ B) = P (A) + P (B) − P (A ∩ B).

Demostraci´ on. Para la propiedad (1) expresamos a Ω como la uni´ on disjunta c A ∪ A . Aplicamos P y obtenemos la igualdad requerida. Tomando el caso particular A igual a Ω en la propiedad (1) obtenemos la propiedad (2). Para demostrar (3) escribimos B = A ∪ (B − A). Aplicando P obtenemos P (B) − P (A) = P (B − A). Como la probabilidad de cualquier evento es un n´ umero no negativo de la anterior igualdad obtenemos tambi´en la propiedad (4). La primera desigualdad de la propiedad (5) es el segundo axioma y la segunda desigualdad es consecuencia de la propiedad (1) y el primer axioma. Finalmente para demostrar (6) descomponemos el evento A ∪ B como la 23

siguiente uni´ on de tres eventos disjuntos dos a dos, A ∪ B = (A − B) ∪ (A ∩ B) ∪ (B − A) = (A − A ∩ B) ∪ (A ∩ B) ∪ (B − A ∩ B). Por lo tanto P (A ∪ B) = P (A) − P (A ∩ B) + P (A ∩ B) + P (B) − P (A ∩ B).  Se estudian a continuaci´ on algunas otras propiedades de las medidas de probabilidad. Proposici´ on 11 (Desigualdades de Boole) Sea {An : n ∈ N} una sucesi´ on de eventos. Entonces 1. P (

An ) ≤

∞ \

An ) ≥ 1 −

n=1

2. P (

∞ X

∞ [

n=1

P (An ).

n=1 ∞ X

P (Acn ).

n=1

Demostraci´ on. (1) Sean B1 = A1 y para n ≥ 2 defina Bn = An −

n−1 [

Ak .

k=1

Entonces {Bn : nS∈ N} es unaSsucesi´ on de eventos disjuntos dos a dos tales ∞ ∞ que Bn ⊆ An y n=1 An = n=1 Bn . Esto es consecuencia de la Proposici´ on 9 de la p´ agina 17. Por lo tanto P(

∞ [

An ) = P (

∞ [

Bn )

n=1

n=1

= ≤

∞ X

n=1 ∞ X

P (Bn ) P (An ).

n=1

El inciso (2) se sigue de (1) tomando complementos. Proposici´ on 12 Sea {An : n ∈ N} una sucesi´ on de eventos. 1. Si P (An ) = 1 para toda n entonces P (

∞ \

An ) = 1.

n=1

2. Si P (An ) = 1 para alguna n entonces P (

∞ [

An ) = 1.

∞ \

An ) = 0.

n=1

3. Si P (An ) = 0 para alguna n entonces P (

n=1

24



4. Si P (An ) = 0 para toda n entonces P (

∞ [

An ) = 0.

n=1

Demostraci´ on. (1) Por las leyes de De Morgan y la desigualdad de Boole, ∞ \

P(

n=1

An ) = 1 − P ( ≥ 1− = 1.

(2) Como An ⊆

S∞

∞ [

Acn )

n=1 ∞ X

P (Acn )

n=1

n=1 An ,

1 = P (An ) ≤ P (

∞ [

An ).

n=1

(3) Como

T∞

n=1 An

⊆ An , P(

∞ \

n=1

An ) ≤ P (An ) = 0.

(4) Por la desigualdad de Boole, P(

∞ [

n=1

An ) ≤

∞ X

P (An ) = 0.

n=1

 Las propiedades (1) y (4) de la proposici´ on anterior pueden interpretarse de la siguiente forma. Intersectar dos eventos produce en general un evento m´ as peque˜ no o por lo menos no mayor a los intersectandos. Sin embargo la propiedad (1) establece que la intersecci´ on, a´ un infinita, de eventos con probabilidad uno produce un evento con probabilidad todav´ıa uno. An´ alogamente unir dos eventos produce en general un evento mayor, pero por la propiedad (4), la uni´ on, a´ un infinita, de eventos con probabilidad cero tiene probabilidad que se mantiene en cero.

EJERCICIOS 68. Demuestre que a) P (Ac ) = 1 − P (A). b) 0 ≤ P (A) ≤ 1.

69. Demuestre que P (∅) = 0 a) usando P (Ω) = 1. 25

b) sin usar P (Ω) = 1. 70. Demuestre que a) P (A − B) = P (A) − P (A ∩ B).

b) P (A ∩ B) − P (A)P (B) = P (Ac )P (B) − P (Ac ∩ B).

71. Demuestre que si A ⊆ B entonces a) P (A) ≤ P (B).

b) P (B − A) = P (B) − P (A).

72. Demuestre que a) m´ ax{P (A), P (B)} ≤ P (A ∪ B). b) P (A ∩ B) ≤ m´ın{P (A), P (B)}.

73. Demuestre que P (A ∪ B) = P (A) + P (B) − P (A ∩ B). 74. Demuestre que P (A ∪ B ∪ C) = P (A) + P (B) + P (C)

−P (A ∩ B) − P (A ∩ C) − P (B ∩ C) +P (A ∩ B ∩ C).

75. Demuestre que P(

n [

n X

Ai ) =

i=1

i=1

+

P (Ai ) −

X

i P (B). 81. Teorema de probabilidad total. Sea (Ω, F, P ) un espacio de probabilidad y sea {A1 , A2 , . . .} una partici´ on de Ω tal que para cada n ≥ 1 el conjunto An es un evento con P (An ) > 0. Demuestre que para cualquier evento B, P (B) =

∞ X

P (B|An )P (An ).

n=1

82. Se lanza una moneda tantas veces como indica un dado previamente lanzado. Calcule la probabilidad de que a) se obtengan ambas caras de la moneda igual n´ umero de veces. b) se obtenga una misma cara siempre. 83. Teorema de Bayes. Sea (Ω, F, P ) un espacio de probabilidad y sea {A1 , A2 , . . .} una partici´ on de Ω tal que para cada n ≥ 1, el conjunto An es un elemento de F y P (An ) > 0. Demuestre que para cualquier evento B tal que P (B) > 0 y cualquier m ≥ 1 fijo, P (Am |B) =

P (B|Am )P (Am ) . ∞ X P (B|An )P (An )

n=1

27

84. Regla del producto. Demuestre que P (A1 ∩· · ·∩An ) = P (A1 )P (A2 |A1 )P (A3 |A1 ∩A2 ) · · · P (An |A1 ∩· · ·∩An−1 ). 85. Desigualdad de Bonferroni. Demuestre que P(

n [

i=1

Ai ) ≥

n X i=1

P (Ai ) −

X i n, 1 − P(

∞ [

k=n

Ak ) ≤ 1 − P (

m [

Ak )

k=n

= P(

m \

Ack )

k=n m Y

=

[1 − P (Ak )]

k=n

≤ exp(−

m X

P (Ak )).

k=n

Para obtener la u ´ltima expresi´ on se usaPla desigualdad 1 − x ≤ e−x , v´ alida ∞ para cualquier n´ umero real x. Como P (A ) = ∞, el lado derecho n n=1 S tiende a cero cuando m tiende a infinito. Por lo tanto P ( ∞ k=n Ak ) = 1 para cualquier valor de n y entonces P (A) = 1.  34

EJERCICIOS 97. Enuncie con precisi´ on el lema de Borel-Cantelli.

35

Cap´ıtulo 2

Variables aleatorias En este cap´ıtulo se estudian los conceptos de variable aleatoria, funci´ on de distribuci´ on, funci´ on de densidad y esperanza. Se estudian tambi´en algunas distribuciones de probabilidad de variables aleatorias discretas y continuas particulares. A partir de ahora y en el resto del curso consideraremos como elemento base un espacio de probabilidad (Ω, F, P ).

2.1.

Variables aleatorias

Definici´ on 12 Una variable aleatoria es una funci´ on X : Ω → R tal que para cualquier conjunto Boreliano B, se cumple que el conjunto X −1 B es un elemento de F.

Esto es, una variable aleatoria (v.a.) es una funci´ on de Ω en R tal que la imagen inversa de cualquier conjunto Boreliano es un elemento de la σ-´ algebra del espacio de probabilidad. Esta condici´ on se conoce como “medibilidad” en teor´ıa de la medida. Decimos entonces que dicha funci´ on es “medible” respecto de las σ-´ algebras F y B(R). Se justifica a continuaci´ on las razones t´ecnicas por las cuales se le pide a una funci´ on X : Ω → R que cumpla la condici´ on de medibilidad. Recordemos que P es una medida de probabilidad definida sobre el espacio medible (Ω, F). Si X es una variable aleatoria entonces podemos trasladar la medida de probabilidad P al espacio medible (R, B(R)) del siguiente modo. Si B es un conjunto Boreliano definimos PX (B) = P (X −1 B), lo cual es consistente pues el conjunto X −1 B es un elemento de F, dominio de definici´ on de P . La funci´ on PX : B(R) → [0, 1] resulta ser una medida de probabilidad y se le llama por tanto la “medida de probabilidad inducida” por la variable aleatoria X. De este modo se construye el espacio de probabilidad (R, B(R), PX ). 36

Si B es un conjunto Boreliano, se usan los s´ımbolos X −1 B y (X ∈ B) para denotar el conjunto {ω ∈ Ω : X(ω) ∈ B}. Por ejemplo el conjunto {ω ∈ Ω : X(ω) ∈ [0, ∞)} puede ser denotado por X −1 [0, ∞) o (X ∈ [0, ∞)), o simplemente por (X ≥ 0), incluyendo los par´entesis. Veamos otro ejemplo. Si (a, b) es un intervalo de la recta real, se puede usar el s´ımbolo X −1 (a, b) o (X ∈ (a, b)) o bien (a < X < b) para denotar el conjunto {ω ∈ Ω : X(ω) ∈ (a, b)}. Para hacer la escritura m´ as corta, a menudo se omite el argumento ω de una v.a. X y se omite tambi´en el t´ermino “variable aleatoria” para X asumiendo, en la mayor´ıa de las veces, que lo es. Para comprobar que una funci´ on X : Ω → R es realmente una variable aleatoria, la definici´ on requiere verificar la condici´ on X −1 B ∈ F para cualquier conjunto Boreliano B. En muy pocos casos tal condici´ on puede comprobarse de manera tan general. La siguiente proposici´ on establece que no es necesario demostrar la condici´ on de medibilidad para cualquier conjunto Boreliano B, sino que es suficiente tomar intervalos de la forma (∞, x] para cada x en R. Este resultado, como uno puede imaginar, es de suma utilidad para demostrar que una funci´ on dada es variable aleatoria. Lo usaremos con frecuencia en el resto del cap´ıtulo.

Proposici´ on 17 Una funci´ on X : Ω → R es una variable aleatoria si y solo si el conjunto X −1 (−∞, x] es un elemento de F para cada x en R.

Demostraci´ on. (⇒) Si X es variable aleatoria entonces claramente se cumple que para cualquier n´ umero real x el conjunto X −1 (−∞, x] es un elemento de F. (⇐)Ahora suponga que para cada real x, el conjunto X −1 (−∞, x] es un elemento de F. Sean B y C las colecciones B = {B ∈ B(R) : X −1 B ∈ F}, C = {(−∞, x] : x ∈ R}.

Entonces claramente C ⊆ B ⊆ B(R). La primera contenci´ on es por hip´ otesis y la segunda es por definici´ on de la colecci´ on B. Suponga por un momento que B es una σ-´ algebra de subconjuntos de R. Entonces B es una σ-´ algebra que contiene a C. Por lo tanto σ(C) = B(R) ⊆ B. Esto implica que B = B(R) y entonces X es variable aleatoria. Resta entonces hacer ver que B es efectivamente una σ-´ algebra. (i) Primeramente tenemos que R ∈ B pues R ∈ B(R) y X −1 R = Ω ∈ F. (ii) Sea B ∈ B. Entonces B ∈ B(R) y X −1 B ∈ F. Entonces B c ∈ B(R) y X −1 B c = (X −1 B)c ∈ F. Es decir, B c ∈ B. (iii) Sea B1 , B2 , . . . una sucesi´ on en B. Es decir, para cada n n´ umero natu∞ ∞ [ [ X −1 Bn = Bn ∈ B(R) y ral, Bn ∈ B(R) y X −1 Bn ∈ F. Entonces n=1

37

n=1

X

−1

∞ [

n=1

Bn ∈ F. Es decir,

∞ [

n=1

Bn ∈ B. 

Adem´ as de la condici´ on anterior para demostrar que una funci´ on es variable aleatoria existen otras condiciones igualmente equivalentes y u ´tiles. Por −1 ejemplo X es variable aleatoria si para cada x en R, X (−∞, x) ∈ F, o X −1 (x, ∞) ∈ F, o X −1 [x, ∞) ∈ F. Cualquiera de estas condiciones es necesaria y suficiente para que X sea variable aleatoria. Tambi´en la condici´ on −1 X (a, b) ∈ F para cualquier intervalo (a, b) de R es equivalente para que X sea variable aleatoria. La demostraci´ on de todas estas aseveraciones es completamente an´ aloga al caso demostrado arriba y se pide desarrollar los detalles en la secci´ on de ejercicios. Considere los espacios medibles (Ω, F) y (R, B(R)). Si X es una funci´ on de Ω en R entonces se denota por σ(X) a la m´ınima σ-´ algebra de subconjuntos de Ω respecto de la cual X es variable aleatoria. Es decir, σ(X) = {X −1 B : B ∈ B(R)}. Es sencillo probar que tal colecci´ on de im´ agenes inversas es efectivamente una σ-´ algebra. Claramente X es variable aleatoria si y solo si σ(X) ⊆ F. A continuaci´ on se demuestra que algunas operaciones b´ asicas entre variables aleatorias producen nuevas variables aleatorias. Suponga que (Ω, F, P ) es un espacio de probabilidad dado. Todas las variables aleatorias que se consideran a continuaci´ on est´ an definidas sobre este espacio de probabilidad. Proposici´ on 18 La funci´ on constante X = c es una v.a. Demostraci´ on. Sea B un elemento cualquiera de B(R). Para la funci´ on con−1 −1 stante X = c se tiene que X B = Ω si c ∈ B, y X B = ∅ si c ∈ / B. En ambos casos el conjunto X −1 B es un elemento de F, por lo tanto X = c es v.a.  Proposici´ on 19 Si X es v.a. y c es una constante entonces cX es v.a. Demostraci´ on. Comprobaremos que para cada n´ umero real x, el conjunto (cX)−1 (−∞, x] es un elemento de F. Tenemos tres casos. Si c > 0 entonces el conjunto (cX ≤ x) = (X ≤ x/c) es un elemento de F pues X es v.a. Si c < 0 entonces nuevamente el conjunto (cX ≤ x) = (X ≥ x/c) es un elemento de F pues X es v.a. Finalmente si c = 0 entonces claramente cX = 0 es v.a. por la proposici´ on anterior.  Proposici´ on 20 Si X y Y son v.a.s entonces X + Y es v.a. 38

Demostraci´ on. Probaremos que para cada n´ umero real x, el conjunto (X + Y )−1 (x, ∞) = (X + Y > x) es un elemento de F. Para ello usaremos la igualdad [ (X + Y > x) = (X > r) ∩ (Y > x − r). (2.1) r∈Q

Es claro que de esta igualdad se concluye que el conjunto (X + Y > x) es un elemento de F pues tanto X como Y son variables aleatorias y la operaci´ on de uni´ on involucrada es numerable. Resta entonces demostrar (2.1). (⊆) Sea ω en Ω tal que X(ω) + Y (ω) > x. Entonces X(ω) > x − Y (ω). Como los n´ umeros racionales son un conjunto denso en R, tenemos que existe un n´ umero racional r tal que X(ω) > r > x − Y (ω). Por lo tanto X(ω) > r y Y (ω) > x − r. De aqui se desprende que ω es un elemento del lado derecho. S (⊇) Sea ahora ω un elemento de r∈Q (X > r)∩(Y > x−r). Entonces existe un n´ umero racional r0 tal que X(ω) > r0 y Y (ω) > x − r0 . Sumando obtenemos X(ω) + Y (ω) > x y por lo tanto ω es un elemento del lado izquierdo.  Proposici´ on 21 Si X y Y son v.a.s entonces XY es v.a. Demostraci´ on. Suponga primero el caso particular X = Y . Entonces necesitamos probar que para todo n´ umero real x, el conjunto (X 2 ≤ x) es un elemento de F. Pero esto es cierto pues (X 2 ≤ x) = ∅ si x < 0 y √ √ (X 2 ≤ x) = (− x ≤ X ≤ x) si x ≥ 0. En ambos casos, (X 2 )−1 (−∞, x] es un elemento de F. Para el caso general X 6= Y usamos la f´ ormula de interpolaci´ on (X + Y )2 − (X − Y )2 . XY = 4 Por lo demostrado antes, XY es efectivamente una v.a.  Como consecuencia de la proposici´ on anterior se cumple que si multiplicamos X por si misma n veces entonces X n es variable aleatoria. Por lo tanto toda funci´ on polinomial de una variable aleatoria es tambi´en variable aleatoria. Proposici´ on 22 Sean X y Y v.a.s con Y 6= 0. Entonces X/Y es v.a. Demostraci´ on. Primeramente demostramos que 1/Y es v.a. Para cualquier n´ umero real y > 0 tenemos que 1 1 1 ( ≤ y) = ( ≤ y, Y > 0) ∪ ( ≤ y, Y < 0) Y Y Y 1 1 = (Y ≥ , Y > 0) ∪ (Y ≤ , Y < 0) y y 1 = (Y ≥ ) ∪ (Y < 0), y 39

que es un elemento de F puesto que Y es v.a. Por otro lado, si y < 0 tenemos que (

1 1 1 ≤ y) = ( ≤ y, Y > 0) ∪ ( ≤ y, Y < 0) Y Y Y 1 1 = (Y ≤ , Y > 0) ∪ (Y ≥ , Y < 0) y y 1 = ∅ ∪ (Y ≥ , Y < 0) y 1 = ( ≤ Y < 0). y

Nuevamente vemos que este conjunto es un elemento de F puesto que Y es v.a. Finalmente cuando y = 0 obtenemos una vez mas un elemento de F pues (

1 1 1 ≤ 0) = ( ≤ 0, Y > 0) ∪ ( ≤ 0, Y < 0) Y Y Y = ∅ ∪ (Y < 0) = (Y < 0).

Esto demuestra que 1/Y es v.a. Como el producto de v.a.s es nuevamente una v.a. concluimos entonces que X/Y es v.a.  Proposici´ on 23 Si X y Y son v.a.s entonces m´ ax{X, Y } y m´ın{X, Y } son variables aleatorias. Demostraci´ on. Para cualquier n´ umero real x, (m´ ax{X, Y } ≤ x) = (X ≤ x, Y ≤ x) = (X ≤ x) ∩ (Y ≤ x). An´ alogamente (m´ın{X, Y } ≥ x) = (X ≥ x, Y ≥ x) = (X ≥ x) ∩ (Y ≥ x). En ambos casos los dos conjuntos del lado derecho son elementos de F. Por lo tanto el lado izquierdo tambi´en pertenece a F.  Como consecuencia de la proposici´ on anterior se obtiene que tanto X + = − max{0, X} como X = −min{0, X} son variables aleatorias. Proposici´ on 24 Si X es v.a. entonces |X| es v.a. Demostraci´ on. Si x ≥ 0 entonces |X|−1 (−∞, x] = {ω : −x ≤ X(ω) ≤ x} ∈ F, y si x < 0 entonces |X|−1 (−∞, x] = ∅ ∈ F, de modo que |X| es v.a. Alternativamente se puede escribir |X| = X + + X − y por lo expuesto anteriormente |X| es v.a.  Demostraremos a continuaci´ on que el rec´ıproco de la proposici´ on anterior es falso. Esto es, si X : Ω → R es una funci´ on tal que |X| es v.a. entonces 40

no necesariamente X es v.a. Considere por ejemplo el espacio muestral Ω = {−1, 0, 1} junto con la σ-´ algebra F = {∅, {0}, {−1, 1}, Ω}. Sea X : Ω → R la funci´ on identidad X(ω) = w. Entonces |X| es v.a. pues para cualquier conjunto Boreliano B,  Ω si 0, 1 ∈ B,    {−1, 1} si 0 ∈ / B y 1 ∈ B, |X|−1 B = {0} si 0 ∈ B y 1 ∈ / B,    ∅ si 0, 1 ∈ / B. Es decir, |X|−1 B es un elemento de F. Sin embargo X no es v.a. pues X −1 {−1} = {−1} no es un elemento de F.

Proposici´ on 25 Sea {Xn : n ∈ N} una sucesi´ on de v.a.s. Entonces sup{Xn } n

e ´ınf {Xn }, cuando existen, son v.a.s n

Demostraci´ on. Este resultado se sigue directamente de las siguientes igualdades. Para cualquier x en R ∞ \

(sup Xn ≤ x) = n

n=1 ∞ \

(´ınf Xn ≥ x) = n

n=1

(Xn ≤ x) ∈ F, (Xn ≥ x) ∈ F. 

Proposici´ on 26 Sea {Xn : n ∈ N} una sucesi´ on de v.a.s. Entonces l´ım sup Xn n→∞

y l´ım inf Xn , cuando existen, son v.a.s n→∞

Demostraci´ on. Esto es consecuencia de la proposici´ on anterior pues 1. l´ım sup Xn = ´ınf (sup Xn ) es v.a., n→∞

k

n≥k

2. l´ım inf Xn = sup(´ınf Xn ) es v.a. n→∞

k

n≥k

 Proposici´ on 27 Sea {Xn : n ∈ N} es una sucesi´ on de v.a.s tales que l´ım Xn (ω) existe para cada ω ∈ Ω. Entonces l´ım Xn es v.a.

n→∞

n→∞

Demostraci´ on. Si l´ım sup Xn y l´ım inf Xn coinciden entonces l´ım Xn existe n→∞

n→∞

n→∞

y es el valor l´ımite com´ un. Por lo anterior, l´ım Xn es v.a. n→∞

41



EJERCICIOS 98. Demuestre que la funci´ on constante X(ω) = c es una variable aleatoria. 99. Demuestre que la funci´ on identidad X(ω) = ω no es variable aleatoria cuando Ω = {1, 2, 3} y F = {∅, {1}, {2, 3}, Ω}. 100. Sea Ω = {−1, , 0, 1} y F = {∅, {0}, {−1, 1}, Ω}. Considere la funci´ on identidad X(ω) = ω. Demuestre que X 2 es variable aleatoria pero X no lo es. 101. Demuestre que X es variable aleatoria si y solo si X −1 (−∞, x) ∈ F para cada x ∈ R. 102. Demuestre que X es variable aleatoria si y solo si X −1 [x, ∞) ∈ F para cada x ∈ R. 103. Demuestre que X es variable aleatoria si y solo si X −1 (x, ∞) ∈ F para cada x ∈ R. 104. Demuestre que X es variable aleatoria si y solo si X −1 (a, b) ∈ F para cada (a, b) ⊆ R. 105. Demuestre que si X es v.a. entonces |X| tambi´en lo es. 106. Mediante un contraejemplo demuestre que si |X| es v.a. entonces no necesariamente X es v.a. 107. Sea (Ω, F) un espacio medible tal que F = {∅, Ω, A, Ac } con A ⊆ Ω. Demuestre que toda funci´ on medible X : Ω → R es constante en A y en Ac . Por lo tanto toda funci´ on medible respecto de esta σ-´ algebra toma a los sumo dos valores distintos. 108. Sea c una constante y X una v.a. Demuestre directamente que cX es v.a. 109. Sea c una constante y X una v.a. Demuestre directamente que X + c es v.a. 110. Sea c una constante y sea X una variable aleatoria. Demuestre directamente que tanto X ∨ c com X ∧ c son variables aleatorias. 111. Demuestre directamente que la suma y diferencia de dos variables aleatorias es variable aleatoria. 112. Sea X una variable aleatoria. Demuestre que la parte entera de X, denotada por ⌊X⌋, es una variable aleatoria discreta. 113. Demuestre que el conjunto de v.a.s definidas sobre un espacio de probabilidad es un espacio vectorial con las operaciones usuales de suma y producto por escalares. 114. Demuestre directamente que el producto y cociente (cuando exista) de dos variables aleatorias es variable aleatoria. 42

115. Sean X y Y v.a.s. Demuestre que tanto X ∨Y como X ∧Y son variables aleatorias. 116. Sea {Xn : n ∈ N} una sucesi´ on de v.a.s. Demuestre que, si existen, tanto sup{Xn } como ´ınf {Xn } son variables aleatorias. n

n

117. Demuestre que si X es variable aleatoria entonces tambi´en lo son X n y 2X 3 − 5X. 118. Demuestre que X es variable aleatoria si y solo si tanto X + = m´ ax{0, X} − como X = − m´ın{0, X} lo son. 119. Sea A ⊆ Ω. Demuestre que la funci´ on indicadora 1A : Ω → R es variable aleatoria si y solo si el conjunto A es medible. 120. Sean A, B ⊆ Ω. Diga falso o verdadero. Demuestre en cada caso. a) A, B medibles =⇒ 1A + 1B es v.a. b) 1A + 1B es v.a. =⇒ A, B son medibles. 121. Sean A, B subconjuntos disjuntos de Ω y sean a, b dos n´ umeros reales distintos. Demuestre que a1A + b1B es v.a. ⇐⇒ A, B son medibles. Una de estas implicaciones resulta falsa cuando se omite la condici´ on de que los n´ umeros a y b son distintos. ¿Cu´ al de ellas es? 122. Sean A1 , . . . , An subconjuntos disjuntos de Ω y a1 , . . . , an constantes distintas. Demuestre que n X i=1

ai 1Ai es v.a. ⇐⇒ Ai es medible para i = 1, . . . , n.

123. Sean A y B dos eventos, y sean 1A y 1B las correspondientes funciones indicadoras. Directamente de la definici´ on demuestre que las funciones 1A + 1B y 1A · 1B son variables aleatorias. 124. Sean X y Y dos variables aleatorias. Demuestre que los conjuntos (X = Y ), (X ≤ Y ), (X > Y ) y (X 6= Y ) son eventos. Sugerencia: Proceda como en la f´ ormula (2.1) de la p´ agina 39. 125. Sea X una variable aleatoria y g : (R, B(R)) → (R, B(R)) una funci´ on Borel medible. Demuestre que g(X) = g ◦ X : Ω → R es tambi´en una variable aleatoria. Sugerencia: Demuestre que la colecci´ on B = {B ∈ B(R) : g −1 B ∈ B(R)} coincide con B(R) usando los siguientes dos resultados: (1) Dada una funci´ on continua de R en R, la imagen inversa de un conjunto abierto es nuevamente un conjunto abierto. (2) Todo conjunto abierto de R distinto del vac´ıo puede expresarse como una uni´ on numerable de intervalos abiertos. 43

126. Sea X una v.a. Demuestre que a) Y = eX es v.a. b) Y = sen X es v.a. c) Y = cos X es v.a. 127. Sea X : Ω → R una funci´ on. Proporcione un ejemplo en el que X 2 sea variable aleatoria pero X no lo sea. 128. Sea X : Ω → R una funci´ on. Proporcione un ejemplo en el que X 2 sea variable aleatoria pero |X| no lo sea. 129. Sean X1 , . . . , Xn v.a.s. Demuestre que n

X ¯= 1 a) X Xi n

es v.a.

i=1

n

b) S 2 =

1 X ¯ 2 (Xi − X) n−1

es v.a.

i=1

130. Sea X una variable aleatoria y sean a < b dos constantes. Demuestre que las siguientes funciones son variables aleatorias.  X si X < a, a) Y = a si X ≥ a.   a si X < a, X si a ≤ X ≤ b, b) Y =  b si X > b, .  X si |X| ≤ a, c) Y = 0 si |X| > a. 131. Sean (Ω1 , F1 ) y (Ω2 , F2 ) dos espacios medibles y sea X : (Ω1 , F1 ) → (Ω2 , F2 ) una funci´ on medible. Suponga que P : F1 → [0, 1] es una medida de probabilidad. Demuestre que P ◦ X −1 : F2 → [0, 1] es tambi´en una medida de probabilidad. A la medida P ◦ X −1 se le llama “medida de probabilidad inducida” por X.

2.2.

Funci´ on de distribuci´ on

Toda variable aleatoria tiene asociada una funci´ on llamada “funci´ on de distribuci´ on”. En esta secci´ on se define este importante concepto y se demuestran algunas de sus propiedades. 44

Definici´ on 13 La funci´ on de distribuci´ on de X es la funci´ on F (x) : R → R definida como sigue F (x) = P (X ≤ x).

Cuando sea necesario especificar la variable aleatoria en cuesti´ on se escribe FX (x), pero en general se omite el sub´ındice X cuando no haya posibilidad de confusi´ on. El argumento de la funci´ on es la letra min´ uscula x que puede tomar cualquier valor real. Por razones obvias a esta funci´ on se le conoce tambi´en con el nombre de “funci´ on de acumulaci´ on de probabilidad” o “funci´ on de probabilidad acumulada’’. Observe que la funci´ on de distribuci´ on de una variable aleatoria est´ a definida sobre la totalidad del conjunto de n´ umeros reales y toma valores en el intervalo [0, 1]. La funci´ on de distribuci´ on es importante pues, como se ilustrar´ a m´ as adelante, contiene ella toda la informaci´ on de la variable aleatoria y la correspondiente medida de probabilidad. A continuaci´ on se estudian algunas propiedades de la funci´ on de distribuci´ on. Proposici´ on 28 Sea F (x) la funci´ on de distribuci´ on de una variable aleatoria. Entonces 1. 2.

l´ım F (x) = 1.

x→+∞

l´ım F (x) = 0.

x→−∞

3. Si x1 ≤ x2 entonces F (x1 ) ≤ F (x2 ). 4. F (x) es continua por la derecha, es decir, F (x+) = F (x).1 Demostraci´ on. (1) Sea {xn : n ∈ N} una sucesi´ on cualquiera de n´ umeros reales creciente a infinito y sean los eventos An = (X ≤ xn ). Entonces {An : n ∈ N} es una sucesi´ on de eventos creciente cuyo l´ımite es Ω. Por la propiedad de continuidad l´ım F (xn ) =

n→∞

l´ım P (An )

n→∞

= P (Ω) = 1. Como R es un espacio m´etrico lo anterior implica que F (x) converge a uno cuando x tiende a infinito. (2) Sea {xn : n ∈ N} una sucesi´ on cualquiera de n´ umeros reales decreciente a menos infinito y sean los eventos An = (X ≤ xn ). Entonces {An : n ∈ N} 1

La expresi´ on F (x+) significa el l´ımite por la derecha de la funci´ on F en el punto x.

45

es una sucesi´ on de eventos decreciente al conjunto vac´ıo. Por la propiedad de continuidad l´ım F (xn ) =

n→∞

l´ım P (An )

n→∞

= P (∅) = 0. Por lo tanto, F (x) converge a cero cuando x tiende a menos infinito. (3) Para x1 ≤ x2 , F (x1 ) ≤ F (x1 ) + P (x1 < X ≤ x2 )

= P [(X ≤ x1 ) ∪ (x1 < X ≤ x2 )]

= P (X ≤ x2 )

= F (x2 ).

(4) Sea {xn : n ∈ N} una sucesi´ on cualquiera de n´ umeros reales no negativos y decreciente a cero. Entonces F (x + xn ) = F (x) + P (x < X ≤ x + xn ), en donde An = (x < X ≤ x + xn ) es una sucesi´ on de eventos decreciente al conjunto vac´ıo. Por lo tanto l´ım F (x + xn ) = F (x).

n→∞

Es decir F (x+) = F (x).  El rec´ıproco de la proposici´ on anterior es v´ alido y justifica la importancia de la funci´ on de distribuci´ on. Se enuncia a continuaci´ on este interesante resultado cuya demostraci´ on omitiremos y puede encontrarse por ejemplo en [8].

Proposici´ on 29 Sea F (x) : R → R una funci´ on que satisface las cuatro propiedades de la proposici´ on anterior. Entonces existe un espacio de probabilidad y una variable aleatoria cuya funci´ on de distribuci´ on es F (x).

Como consecuencia tenemos la siguiente definici´ on general. Definici´ on 14 Una funci´ on F (x) : R → R es llamada “funci´ on de distribuci´ on” si cumple con las cuatro propiedades anteriores. Veamos algunas otras propiedades que establecen la forma de calcular probabilidades usando la funci´ on de distribuci´ on. 46

Proposici´ on 30 Para cualquier n´ umero x y para cualesquiera n´ umeros reales a ≤ b, 1. P (X < x) = F (x−).2 2. P (X = x) = F (x) − F (x−). 3. P (X ∈ (a, b]) = F (b) − F (a). 4. P (X ∈ [a, b]) = F (b) − F (a−). 5. P (X ∈ (a, b)) = F (b−) − F (a). 6. P (X ∈ [a, b)) = F (b−) − F (a−). Demostraci´ on. (1) Sea {xn : n ∈ N} una sucesi´ on cualquiera de n´ umeros reales no negativos y decreciente a cero. Sea An el evento (X ≤ a − xn ). Entonces {An : n ∈ N} es una sucesi´ on de eventos decreciente al evento (X < a). Por la propiedad de continuidad P (X < a) = =

l´ım P (An )

n→∞

l´ım F (a − xn )

n→∞

= F (a−). Para (2) simplemente escribimos P (X = x) = P (X ≤ x) − P (X < x) = F (x) − F (x−).

Las igualdades (3),(4),(5) y (6) se siguen directamente de (1) y (2).



Observe que como F(x) es una funci´ on no decreciente y continua por la derecha, la probabilidad P (X = x) = F (x) − F (x−) representa el tama˜ no del salto o discontinuidad de la funci´ on de distribuci´ on en el punto x. En consecuencia, cuando F (x) es una funci´ on continua y para a < b, F (b) − F (a) = P (X ∈ (a, b]) = P (X ∈ [a, b])

= P (X ∈ (a, b))

= P (X ∈ [a, b)). Es decir, incluir o excluir los extremos de un intervalo no afecta el c´ alculo de la probabilidad de dicho intervalo. Por lo tanto para cualquier n´ umero x, P (X = x) = 0. Finalizamos esta secci´ on con un resultado interesante cuya prueba es simple. Proposici´ on 31 Toda funci´ on de distribuci´ on tiene a lo sumo un n´ umero numerable de discontinuidades. 2

La expresi´ on F (x−) significa el l´ımite por la izquierda de la funci´ on F en el punto x.

47

Demostraci´ on. Sea D el conjunto de puntos de discontinuidad de una funci´ on de distribuci´ on F (x). Para cada n´ umero natural n defina los subconjuntos Dn = {x ∈ D :

1 1 < F (x) − F (x−) ≤ }. n+1 n

Cada conjunto Dn tiene a lo sumo n elementos. Como D = concluye que D es numerable.

S∞

n=1 Dn

se 

EJERCICIOS 132. Demuestre que las siguientes funciones son de distribuci´ on. a) F (x) = 1 − e−x para x > 0.

b) F (x) = 1 − (1 + x)e−x para x > 0.  si x < −1,  0 (x + 1)/2 si x ∈ [−1, 1], c) F (x) =  1 si x > 1.

133. Investigue si las siguientes funciones son de distribuci´ on. a) F (x) = x para x ∈ R. 2

b) F (x) = 1 − e−x para x > 0.

c) F (x) = e−1/x para x > 0. ex para x ∈ R. d ) F (x) = 1 + ex ex e) F (x) = x para x ∈ R. e + e−x 134. Sean F (x) y G(x) dos funciones de distribuci´ on. Determine si las siguientes funciones son de distribuci´ on. a) aF (x) + (1 − a)G(x) con 0 ≤ a ≤ 1. b) F (x) + G(x). c) F (x)G(x). 135. Sea X con funci´ on de distribuci´ on ( 0 F (x) = 4 1− 2 x

si x < 2, si x ≥ 2.

Grafique y demuestre que F (x) es una funci´ on de distribuci´ on. Calcule adem´ as P (X ≤ 4), P (X > 1), P (4 < X < 6) y P (X = 2). 136. Sea X con funci´ on de distribuci´ on  0      0.2 0.5 F (x) =   0.9    1 48

si si si si si

x < 0, 0 ≤ x < 1, 1 ≤ x < 3, 3 ≤ x < 4, x ≥ 4.

Grafique y demuestre que F (x) es una funci´ on de distribuci´ on. Calcule adem´ as P (X ≤ 1), P (X = 1), P (0 < X < 3), P (X = 4) y P (X ≥ 3). 137. Sea X con funci´ on de distribuci´ on F(x). Demuestre que a) l´ım F (x) = 1. x→∞

b)

l´ım F (x) = 0.

x→−∞

c) x1 ≤ x2 =⇒ F (x1 ) ≤ F (x2 ).

d ) F (x+) = F (x).

138. Sea X con funci´ on de distribuci´ on F(x). Demuestre que a) P (X < x) = F (x−). b) P (X = x) = F (x) − F (x−). c) P (X > x) = 1 − F (x).

139. Sea X con funci´ on de distribuci´ on F(x). Demuestre que para x ≤ y a) P (x < X ≤ y) = F (y) − F (x).

b) P (x < X < y) = F (y−) − F (x). c) P (x ≤ X ≤ y) = F (y) − F (x−).

d ) P (x ≤ X < y) = F (y−) − F (x−). 140. En la escuela rusa de probabilidad se define la funci´ on de distribuci´ on de una variable aleatoria X como F (x) = P (X < x). Observe el signo “ x) = P (X = x).

143. Encuentre FY (y) en t´erminos de FX (x) cuando a) Y = aX + b con a, b constantes. b) Y = eX . c) Y = e−X . d ) Y = X 2. 49

e) Y = X + = m´ ax{0, X}. f ) Y = X − = − m´ın{0, X}.

g) Y = |X|.

h) Y = −X.

i ) Y = sen X.

144. Sea X con funci´ on de distribuci´ on FX (x) y sean a < b dos constantes. Calcule y grafique la funci´ on de distribuci´ on de  X si X < a, a) Y = a si X ≥ a.   a si X < a, X si a ≤ X ≤ b, b) Y =  b si X > b.  X si |X| ≤ a, c) Y = 0 si |X| > a. 145. Sean F (x) y G(x) dos funciones de distribuci´ on continuas y estrictamente crecientes. Demuestre que a) si F (x) ≥ G(x) entonces F −1 (y) ≤ G−1 (y).

b) si X tiene funci´ on de distribuci´ on F (x) entonces Y = G−1 (F (X)) tiene funci´ on de distribuci´ on G(x). c) si F (x) ≥ G(x) entonces existen variables aleatorias X y Y cuyas funciones de distribuci´ on son F (x) y G(x) respectivamente, y son tales que X ≤ Y . Sugerencia: Use el inciso anterior.

2.3.

Tipos de variables aleatorias

Las variables aleatorias se clasifican en al menos dos tipos: discretas y continuas. La definici´ on es la siguiente. Sea X una variable aleatoria con funci´ on de distribuci´ on F (x).

Definici´ on 15 La variable aleatoria X se llama “discreta” si su correspondiente funci´ on de distribuci´ on F (x) es una “funci´ on constante por pedazos”. Sean x1 , x2 , . . . los puntos de discontinuidad de F (x). En cada uno de estos puntos el tama˜ no de la discontinuidad es P (X = xi ) = F (xi ) − F (xi −) > 0. A la funci´ on f (x) que indica estos incrementos se le llama “funci´ on de densidad” de X y se define como sigue  P (X = x) si x = x1 , x2 , . . . (2.2) f (x) = 0 otro caso.

50

En este caso discreto la funci´ on f (x) siempre existe y se le llama tambi´en “funci´ on de masa de probabilidad” o simplemente “funci´ on de probabilidad” de la variable aleatoria X. Cuando sea necesario especificarlo se escribe fX (x) en lugar de f (x). Observe on no negativa que P que f (x) es una funci´ ıprocamente toda funci´ on suma uno en el sentido que i f (xi ) = 1. Rec´ de la forma (2.2) que cumpla estas dos propiedades se le llama “funci´ on de densidad”, sin que haya necesariamente una variable aleatoria de por medio. Es posible reconstruir la funci´ on de distribuci´ on a partir de la funci´ on de densidad mediante la relaci´ on X F (x) = f (xi ). xi ≤x

Definici´ on 16 La variable aleatoria X se llama “continua” si su correspondientes funci´ on de distribuci´ on F (x) es una funci´ on continua. Cuando existe una funci´ on integrable f ≥ 0 tal que Z x F (x) = f (u) du, (2.3) −∞

para cualquier valor de x, entonces se dice que X es “absolutamente continua”. En tal caso a la funci´ on f (x) se le llama “funci´ on de densidad” de X.

No todas las variables aleatorias continuas tienen funci´ on de densidad, y a´ un cuando ´esta exista puede no ser u ´nica pues basta modificarla en un punto para que sea ligeramente distinta y a pesar de ello seguir cumpliendo (2.3). Es claro que la funci´ on de densidad de una variable aleatoria absolutamente continua es no negativa y su integral sobre toda la recta real es uno. Rec´ıprocamente toda funci´ on f (x) no negativa que integre uno en R se llama funci´ on de densidad. Si X es absolutamente continua con funci´ on de distribuci´ on F (X) y funci´ on de densidad continua f (x) entonces el teorema fundamental del c´ alculo establece que, a partir de (2.3), F ′ (x) = f (x). Una variable aleatoria que no es discreta ni continua se llama “variable aleatoria mixta”, y un ejemplo de este tipo de variables se presenta a continuaci´ on. Ejemplo 9 (Variable aleatoria que no es discreta ni continua.) Sea X una variable aleatoria con funci´ on de distribuci´ on  1 − e−x si x > 0, F (x) = 0 si x ≤ 0. Como F (x) es continua entonces X es una variable aleatoria continua. Sea Y = X ∧M con M > 0 constante. Observe que Y est´ a acotada superiormente 51

por la constante M . La funci´ on de distribuci´ on de Y es  si y ≥ M,  1 −x 1−e si 0 < y < M, F (y) =  0 si x ≤ 0.

Esta funci´ on no es constante por pedazos pues es creciente en (0, M ) y tampoco es continua pues tiene una discontinuidad en y = M . Por lo tanto Y es una variable aleatoria que no es discreta ni continua.

EJERCICIOS 146. Encuentre la constante c que hace a f (x) una funci´ on de densidad. c para x = 1, 2, . . . x(x + 1) b) f (x) = ce−x para x = 1, 2, . . . c c) f (x) = para x = 1, 2, . . . x! d ) f (x) = cx2 para 0 < x < 1. a) f (x) =

e) f (x) = cxe−2x f ) f (x) =

cx−2

2

para x > 0.

para x > 1.

cex

para x ∈ R. (1 + ex )2 h) f (x) = cx(1 − x) para 0 < x < 1. c para 0 < x < 1. i ) f (x) = √ 1 − x2 c j ) f (x) = para x ∈ R. 1 + x2 g) f (x) =

147. Demuestre que las siguientes funciones son de densidad. Encuentre la correspondiente funci´ on de distribuci´ on y demuestre que satisface las propiedades de toda funci´ on de distribuci´ on. Grafique ambas funciones. a) f (x) = 2x para x ∈ [0, 1]. 3 b) f (x) = x2 para x ∈ [−1, 1]. 2 1 c) f (x) = 1 − x para x ∈ [0, 2]. 2 2 d ) f (x) = 2 x para x ∈ [0, m] con m > 0. m 1 e) f (x) = para x ∈ [0, 1/2]. (1 − x)2 1 f ) f (x) = e|x| para x ∈ R. 2 148. Demuestre que las siguientes funciones son de distribuci´ on. Encuentre la correspondiente funci´ on de densidad y compruebe que efectivamente es una funci´ on de densidad. Grafique ambas funciones. 52

a) F (x) =



0 1

  0 x b) F (x) =  1

si x < 0, si x ≥ 0.

si x ≤ 0, si 0 < x < 1, si x ≥ 1.

ex . 1 + ex Z 1 x −|u| d ) F (x) = e du. 2 −∞ c) F (x) =

149. Sea f (x) una funci´ on de densidad y sea c una constante. Demuestre que f (x + c) es tambi´en una funci´ on de densidad. 150. Diga falso o verdadero. Demuestre en cada caso. a) Toda funci´ on de densidad es acotada. b) Toda funci´ on de distribuci´ on es acotada. 151. Sea X absolutamente continua y sea Y = aX + b con a 6= 0, b constantes. Demuestre que fY (y) =

2.4.

1 fX ((y − b)/a). |a|

Integral de Riemann-Stieltjes

´ En esta secci´ on se define la integral de Riemann-Stieltjes. Esta es una integral de la forma Z b h(x) dF (x) a

y constituye una generalizaci´ on de la integral de Riemann. Las funciones h(x) y F (x) deben cumplir ciertas propiedades para que la integral tenga sentido y est´e bien definida. Al integrando h(x) se le pide inicialmente que sea una funci´ on acotada en el intervalo [a, b], aunque despu´es se relajar´ a esta condici´ on. A la funci´ on integradora F (x) se le pide que sea continua por la derecha, mon´ otona no decreciente y tal que F (∞)−F (−∞) < M para alg´ un n´ umero M > 0. Observe que F (x) debe cumplir propiedades casi id´enticas a las de una funci´ on de distribuci´ on y de hecho la notaci´ on es la misma. Esto no es coincidencia pues usaremos las funciones de distribuci´ on como funciones integradoras. Presentamos a continuaci´ on la definici´ on de la integral de Riemann- Stieltjes bajo las condiciones arriba se˜ naladas. En [8] puede encontrarse una exposici´ on m´ as completa y rigurosa de esta integral. Nuestro objetivo en esta secci´ on es simplemente presentar la definici´ on y mencionar algunas propiedades.

53

Sea {a = x0 < x1 < · · · < xn = b} una partici´ on finita del intervalo [a, b] y defina ¯ i ) = sup{h(x) : xi−1 ≤ x ≤ xi }, h(x

h(xi ) = ´ınf{h(x) : xi−1 ≤ x ≤ xi }.

Se define la suma superior e inferior de Riemann-Stieltjes como sigue S¯n =

n X i=1

Sn =

n X i=1

¯ i )[F (xi ) − F (xi−1 )], h(x h(xi )[F (xi ) − F (xi−1 )].

Ahora se hace n tender a infinito de tal forma que la longitud m´ ax{|xi − xi−1 | : 1 ≤ i ≤ n} tienda a cero. Si sucede que −∞ < l´ım S n = l´ım S¯n < ∞, n→∞

n→∞

entonces el valor com´ un se denota por Z b h(x) dF (x), a

y se le llama la integral de Riemann-Stieltjes de la funci´ on h(x) respecto de la funci´ on F (x) sobre el intervalo [a, b]. Cuando la funci´ on h(x) no es acotada se define  si h(x) < N,  −N h(x) si |h(x)| ≤ N, hN (x) =  N si h(x) > N. y entonces

Z

b

h(x) dF (x) = l´ım

a

Z

N →∞ a

b

hN (x) dF (x),

cuando este l´ımite existe. Se puede extender la definici´ on de esta integral de la siguiente forma Z b Z ∞ h(x) dF (x), h(x) dF (x) = l´ım −∞

a,b→∞ a

cuando el l´ımite del lado derecho exista. La integral de Riemann-Stieltjes tiene muchas propiedades semejantes a la integral de Riemann. Enunciaremos a continuaci´ on algunas de ellas. Primeramente es lineal tanto en el integrando como en el integrador, es decir, si α es constante entonces Z b Z b Z b (αh1 (x) + h2 (x)) dF (x) = α h1 (x) dF (x) + h2 (x) dF (x), a a a Z b Z b Z b h(x) d(αF1 (x) + F2 (x)) = α h(x) dF1 (x) + h(x) dF2 (x). a

a

54

a

Cuando h(x) tiene primera derivada continua se cumple la f´ ormula Z b Z b h(x) dF (x) = h(b)F (b) − h(a)F (a) − F (x)h′ (x) dx. a

a

De particular importancia en la teor´ıa de la probabilidad son los siguientes dos casos particulares. Cuando F (x) es diferenciable entonces Z b Z b h(x) dF (x) = h(x)F ′ (x) dx. a

a

De modo que integrar respecto de una funci´ on de distribuci´ on absolutamente continua se reduce a efectuar una integral de Riemann. El otro caso interesante sucede cuando F (x) es constante excepto en los puntos x1 , x2 , . . . en donde tiene saltos positivos de tama˜ no p(x1 ), p(x2 ), . . . respectivamente y h(x) es continua. En este caso y suponiendo convergencia Z b ∞ X h(xi )p(xi ). h(x) dF (x) = a

i=1

Por lo tanto integrar respecto de la funci´ on de distribuci´ on de una variable aleatoria discreta se reduce a efectuar una suma. Finalmente enunciamos la propiedad que ilustra el hecho de que la integral de Riemann es un caso particular de la integral de Riemann-Stieltjes. Cuando F (x) = x se cumple Z b Z b h(x) dx. h(x) dF (x) = a

a

EJERCICIOS 152. Sea F (x) una funci´ on de distribuci´ on absolutamente continua. Demuestre que para cualesquiera n´ umeros naturales n y m Z ∞ m . F n (x) dF m (x) = n + m −∞

2.5.

Caracter´ısticas num´ ericas

Se estudian a continuaci´ on algunas caracter´ısticas num´ericas asociadas a variables aleatorias. Se definen los conceptos de esperanza, varianza y m´ as generalmente los momentos de una variable aleatoria utilizando la integral de Riemann-Stieltjes.

2.5.1.

Esperanza

La esperanza de una variable aleatoria es un n´ umero que representa el promedio ponderado de los posible valores que toma la variable aleatoria y se calcula como se indica a continuaci´ on. 55

Definici´ on 17 Sea X con funci´ on de distribuci´ on F (x) y sea g : R → R una funci´ on Borel medible. La esperanza de g(X) denotada por E[g(X)] se define como el n´ umero Z ∞ E[g(X)] = g(x) dF (x). −∞

cuando esta integral sea absolutamente convergente.

En particular, cuando g(x) = x y suponiendo que la integral existe, Z ∞ E(X) = x dF (x). −∞

A la esperanza se le conoce tambi´en con el nombre de: “media”, “valor esperado”, “valor promedio” o “valor medio”, y en general se usa la letra griega µ (mu) para denotarla. Cuando X es discreta con funci´ on de densidad f (x) su esperanza, si existe, se calcula como sigue X E(X) = xf (x). x

Cuando X es absolutamente continua con funci´ on de densidad f (x) entonces su esperanza, si existe, es Z ∞ E(X) = xf (x) dx. −∞

La integral o suma arriba mencionados pueden no existir y en ese caso se dice que la variable aleatoria no tiene esperanza finita. V´ease el ejercicio 156 en la p´ agina 57 para algunos ejemplos de esta situaci´ on. Se muestran a continuaci´ on algunos ejemplos sencillos del c´ alculo de la esperanza. Ejemplo 10 Sea X discreta con valores en el conjunto {1, 2, . . .} y con funci´ on de densidad f (x) = P (X = x) = 1/2x . Entonces E(X) =

∞ X x=1

∞ X x xf (x) = = 1. 2x x=1

Ejemplo 11 Sea X continua con funci´ on de densidad f (x) = 2x para 0 < x < 1. Entonces Z 1 Z ∞ 2 x · 2x dx = . xf (x) dx = E(X) = 3 0 −∞ M´ as generalmente, n

E(X ) =

Z



n

x f (x) dx =

−∞

Z

0

56

1

xn · 2x dx =

2 . n+2

Establecemos a continuaci´ on algunas propiedades de la esperanza.

Proposici´ on 32 Sean X y Y con esperanza finita y sea c una constante. Entonces 1. E(c) = c. 2. E(cX) = cE(X). 3. Si X ≥ 0 entonces E(X) ≥ 0. 4. Si X ≤ Y entonces E(X) ≤ E(Y ). 5. E(X + Y ) = E(X) + E(Y ).

Las cuatro primeras propiedades de la esperanza se siguen directamente de la definici´ on.

EJERCICIOS 153. Calcule la esperanza de X, si existe, cuando ´esta tiene funci´ on de densidad a) f (x) = b) f (x) =

1 5 para x 1 1 e x! para

= −2, −1, 0, 1, 2. x = 0, 1, 2, . . ..

154. Calcule la esperanza de X, si existe, cuando ´esta tiene funci´ on de densidad a) f (x) = |x| para −1 < x < 1. b) f (x) = 21 e|x| para x ∈ R.

155. Sean X con esperanza finita y sea c una constante. Demuestre que a) E(c) = c. b) E(cX) = cE(X). c) E(X + c) = E(X) + c. d ) Si X ≥ 0 entonces E(X) ≥ 0.

e) Si X ≤ Y entonces E(X) ≤ E(Y ).

156. Demuestre que E(X) no existe cuando X tiene funci´ on de densidad 1 para x = 1, 2, . . . x(x + 1) 3 b) f (x) = 2 2 para x ∈ Z − {0}. π x

a) f (x) =

57

1 para x > 1. x2 1 d ) f (x) = para x ∈ R. π(1 + x2 ) c) f (x) =

157. (La paradoja de San Petersburgo.) Se lanza una moneda equilibrada repetidas veces hasta que una de las caras en particular aparece por primera vez. Si n es el n´ umero de lanzamientos realizados entonces un n jugador recibe 2 unidades monetarias. ¿Cu´ al debe ser el pago inicial justo para ingresar a este juego? 158. Sea {A1 , A2 , . . .} una colecci´ on de eventos que forman una partici´ on de Ω tal que P (Ai ) > 0 para i ≥ 1. Sea X una variable aleatoria discreta con esperanza finita. Para cualquier evento A con probabilidad positiva defina X E(X|A) = xP (X = x|A). x

Demuestre que

E(X) =

∞ X

E(X|Ai )P (Ai ).

i=1

159. Demuestre que a) E(m´ın{X, Y }) ≤ m´ın{E(X), E(Y )}.

b) E(m´ ax{X, Y }) ≥ m´ ax{E(X), E(Y )}.

160. Sea X > 0 con esperanza finita. Demuestre que   1 1 ≤E . E(X) X 161. Sea X ≥ 0 discreta con valores x1 , . . . , xk . Demuestre que E(X n+1 ) = m´ ax xi , n→∞ E(X n ) 1≤i≤k p ax xi . b) l´ım n E(X n ) = m´

a) l´ım

n→∞

1≤i≤k

162. Sea X discreta con valores 0, 1, . . . y con esperanza finita. Demuestre que ∞ X E(X) = P (X ≥ n). n=1

163. Sea X ≥ 0 con esperanza finita y sea p ∈ (0, 1). Suponga que se cumple P (X ≥ k) ≤ pk para k = 0, 1, . . . Demuestre que E(X) ≤

58

1 . 1−p

164. Sea X ≥ 0 con esperanza finita y para cada n´ umero natural n defina el evento An = (n − 1 ≤ X < n). Demuestre que ∞ X

n=1

(n − 1)1An ≤ X
0, entonces la sucesi´ on de momentos determina de manera u ´nica a la distribuci´ on de X. Las condiciones enunciadas para la determinaci´ on de la distribuci´ on de probabilidad son suficientes pero no necesarias.

EJERCICIOS 176. Calcule el n-´esimo momento de X, si exsite, cuando ´esta tiene funci´ on de densidad a) f (x) = 1/5 para x = −2, −1, 0, 1, 2. b) f (x) = e−1 /x! para x = 0, 1, 2, . . .

177. Calcule el n-´esimo momento de X, si existe, cuando ´esta tiene funci´ on de densidad a) f (x) = |x| para −1 < x < 1. b) f (x) = 21 e|x| para x ∈ R.

178. Sea X tal que E|X|n < ∞ para alg´ un natural n. Demuestre que para m = 1, . . . , n, E|X|m ≤ E|X|n . Esta desigualdad establece que los momentos absolutos anteriores a n existen cuando el n-´esimo existe. 179. Sea A un evento y sea 1A la funci´ on indicadora de A. Demuestre que a) E(1A ) = P (A). b) E(1nA ) = P (A). c) Var(1A ) = P (A)(1 − P (A)).

d ) Var(1A ) ≤ 14 .

180. Sea X ≥ 0 con n-´esimo momento finito. Demuestre que Z ∞ n E(X ) = n xn−1 [1 − F (x)] dx. 0

181. Sea X discreta con valores 0, 1, . . . y con segundo momento finito. Demuestre que 2

E(X ) =

∞ X

n=1

(2n − 1)P (X ≥ n).

62

182. (Desigualdad de Cauchy-Schwarz.) Sean X y Y con segundo momento finito. Demuestre que E 2 (XY ) ≤ E(X 2 )E(Y 2 ). Sugerencia: Observe que para cualquier valor real de t, E[(tX +Y )2 ] ≥ 0. Desarrolle el cuadrado y encuentre una ecuaci´ on cuadr´ atica en t, ¿qu´e puede decir de su discriminante? 183. Use la desigualdad de Cauchy-Schwarz para demostrar que el espacio L2 (Ω, F, P ) consistente de todas las variables aleatorias X tales que E|X|2 < ∞, es un espacio vectorial. 184. Demuestre que si X es una variable aleatoria acotada, es decir, existe k > 0 tal que P (|X| ≤ k) = 1, entonces todos los momentos de X existen.

2.6.

Distribuciones discretas

En esta secci´ on se estudian algunas distribuciones discretas de probabilidad de uso com´ un. V´ease el ap´endice A al final del libro para algunas otras distribuciones de probabilidad o para consultar algunas otras propiedades de las distribuciones enunciadas en esta secci´ on. Distribuci´ on uniforme discreta. Se dice que X tiene una distribuci´ on uniforme sobre el conjunto {x1 , . . . , xn } si la probabilidad de que X tome cualquiera de estos valores es 1/n. Esta distribuci´ on surge en espacios de probabilidad equiprobables, esto es, en situaciones en donde se tienen n resultados diferentes y todos ellos tienen la misma probabilidad de ocurrir. Los juegos de loter´ıa justos son un ejemplo donde puede aplicarse esta distribuci´ on. Se escribe X ∼ unif{x1 , . . . , xn } y para x = x1 , . . . , xn f (x) = P (X = x) =

1 . n

La gr´ afica de la funci´ on de densidad unif{1, 2, 3, 4, 5, 6, 7} aparece en la figura 2.1. Es f´ acil ver que n

E(X) =

1X xi , n i=1

Var(X) =

n 1X (xi − E(X))2 . n i=1

EJERCICIOS 185. Sea X con distribuci´ on unif{1, . . . , n}. Demuestre que 63

fHxL

1 €€€€ 7

1

2

4

3

5

6

7

x

Figura 2.1: Funci´on de densidad de la distribuci´on unif{1, 2, 3, 4, 5, 6, 7}.

n+1 . 2 (n + 1)(2n + 1) b) E(X 2 ) = . 6 n2 − 1 . c) Var(X) = 12

a) E(X) =

186. Se escogen al azar y de manera independiente dos n´ umeros a y b dentro del conjunto {1, . . . , n}. Demuestre que la probabilidad de que el cociente a/b sea menor o igual a uno es (n + 1)/2n.

Distribuci´ on Bernoulli. Un “ensayo Bernoulli” es un experimento aleatorio con u ´nicamente dos posibles resultados, llamados gen´ericamente “´exito” y “fracaso”, y con probabilidades respectivas p y 1 − p. Se define la variable aleatoria X como aquella funci´ on que lleva el resultado ”´exito” al n´ umero 1 y el resultado ”fracaso” al n´ umero 0. Entonces se dice que X tiene una distribuci´ on Bernoulli con par´ ametro p ∈ (0, 1). Se escribe X ∼ Ber(p) y la correspondientes funci´ on de densidad es   1 − p si x = 0, p si x = 1, f (x) =  0 otro caso. La gr´ afica de la funci´ on de densidad de la distribuci´ on Ber(p) para p =0.7 aparece en la figura 2.2. Es sencillo verificar que E(X) = p, Var(X) = p(1 − p). EJERCICIOS 187. Compruebe que la funci´ on de densidad de la distribuci´ on Ber(p) efectivamente lo es. Obtenga adem´ as la correspondiente funci´ on de distribuci´ on. Grafique ambas funciones. 64

fHxL

0.7

0.3

x

1

Figura 2.2: Funci´on de densidad de la distribuci´on Ber(p) para p = 0,7.

188. Sea X con distribuci´ on Ber(p). Demuestre que a) E(X) = p. b) E(X n ) = p para n ≥ 1. c) Var(X) = p(1 − p).

Distribuci´ on binomial. Suponga que se realizan n ensayos independientes Bernoulli en donde la probabilidad de ´exito en cada uno de ellos es p. Si denotamos por E el resultado “´exito” y por F el resultado “fracaso” entonces el espacio muestral consiste de todas las posibles sucesiones de tama˜ no n de caracteres E y F. Usando el principio multiplicativo, es f´ acil ver que el conjunto Ω tiene 2n elementos. Si ahora se define la variable aleatoria X como el n´ umero de ´exitos en cada una de estas sucesiones entonces X toma los valores 0, 1, . . . , n y se dice que X tiene una distribuci´ on binomial con par´ ametros n y p. Se escribe X ∼ bin(n, p) y para x = 0, 1, . . . , n   n px (1 − p)n−x . f (x) = P (X = x) = x fHxL

fHxL

fHxL

0.3

0.3

0.3

0.2

0.2

0.2

0.1

0.1

0.1

1

2

3

4

5

6

7

8

(a)

9 10

x

1

2

3

4

5

(b)

6

7

8

9 10

x

1

2

3

4

5

6

7

8

9 10

x

(c)

Figura 2.3: Funci´on de densidad de la distribuci´on bin(n, p) para n = 10 y (a) p = 0,3, (b) p = 0,5, (c) p = 0,7.

En la figura 2.3 se muestra el comportamiento de la funci´ on de densidad de la distribuci´ on bin(n, p) para n = 10 y varios valores del par´ ametro p. Se 65

puede demostrar que E(X) = np, Var(X) = np(1 − p). EJERCICIOS 189. Use el teorema del binomio para comprobar que la funci´ on de densidad de la distribuci´ on bin(n, p) efectivamente lo es. 190. Sea X con distribuci´ on bin(n, p). Demuestre que a) b) c) d) e)

E(X) = np. E(X 2 ) = np(1 − p + np). Var(X) = np(1 − p). E(X − np)3 = npq(q − p). E(X − np)4 = 3n2 p2 q 2 + npq(1 − 6qp).

191. Sea X con distribuci´ on bin(n, p). Demuestre que Y = n − X tiene distribuci´ on bin(n, 1 − p). 192. Sea X con distribuci´ on bin(n, p). Demuestre que n−x p · · P (X = x). 1−p x+1 b) P (X = x − 1)P (X = x + 1) ≤ P 2 (X = x).

a) P (X = x + 1) =

193. Se lanza una moneda equilibrada 6 veces. Calcule la probabilidad de que cada cara caiga exactamente 3 veces. 194. Se lanza una moneda equilibrada 2n veces. Calcule la probabilidad de que ambas caras caigan el mismo n´ umero de veces.

Distribuci´ on geom´ etrica. Suponga que se tiene una sucesi´ on infinita de ensayos independientes Bernoulli. Se define X como el n´ umero de fracasos antes de obtener el primer ´exito. Se dice entonces que X tiene una distribuci´ on geom´etrica con par´ ametro p. Se escribe X ∼ geo(p) y para x = 0, 1, . . . f (x) = P (X = x) = p(1 − p)x .

La gr´ afica de la funci´ on de densidad geo(p) aparece en la figura 2.4 para p =0.4. Para la distribuci´ on geo(p) se tiene que E(X) = Var(X) =

1−p , p 1−p . p2

En algunos textos se define tambi´en la distribuci´ on geom´etrica como el n´ umero de ensayos (no el de fracasos) antes del primer ´exito. La distribuci´ on cambia ligeramente. 66

fHxL

0.4 0.3 0.2 0.1 1

2

3

4

5

6

7

8

9 10

x

Figura 2.4: Funci´on de densidad de la distribuci´on geo(p) con p = 0,4.

EJERCICIOS 195. Compruebe que la funci´ on de densidad de la distribuci´ on geo(p) efectivamente lo es. 196. Sea X con distribuci´ on geo(p). Demuestre que 1−p . p 1−p b) Var(X) = . p2

a) E(X) =

197. Sea X con distribuci´ on geo(p). Demuestre que P (X ≥ n) = (1 − p)2 . Ahora use este resultado y la f´ ormula del ejercicio 162 en la p´ agina 58 para demostrar que E(X) = (1 − p)/p. 198. Sea X con distribuci´ on geo(p). Demuestre que P (X ≥ x + y | X ≥ x) = P (X ≥ y). Distribuci´ on Poisson. Se dice que X tiene una distribuci´ on Poisson con par´ ametro λ > 0 y se escribe X ∼ Poisson(λ) cuando para x = 0, 1, . . . f (x) = P (X = x) =

λx −λ e . x!

En la figura 2.5 aparece la gr´ afica de la funci´ on de densidad de la distribuci´ on Poisson(λ) para λ = 2. Puede demostrarse que E(X) = λ, Var(X) = λ.

67

fHxL

0.3 0.2 0.1

1

2

3

4

5

6

7

8

x

Figura 2.5: Funci´on de densidad de la distribuci´on Poisson(λ) con λ = 2.

EJERCICIOS 199. Compruebe que la funci´ on de densidad de la distribuci´ on Poisson(λ) efectivamente lo es. 200. Sea X con distribuci´ on Poisson(λ). Demuestre que a) E(X) = λ. b) E(X 2 ) = λ(λ + 1). c) Var(X) = λ. d ) E(X 3 ) = λE(X + 1)2 . 201. Sean X y Y independientes ambas con distribuci´ on Poisson con par´ ametros λ1 y λ2 respectivamente. Demuestre que X + Y tiene distribuci´ on Poisson(λ1 + λ2 ). 202. Sea X con distribuci´ on Poisson(λ). Demuestre que λ · P (X = x). x+1 b) P (X = x − 1)P (X = x + 1) ≤ P 2 (X = x).

a) P (X = x + 1) =

203. Sea X con distribuci´ on Poisson(λ). Demuestre que 1 a) P (X ∈ {1, 3, 5, . . .}) = (1 − e−2λ ). 2 1 b) P (X ∈ {0, 2, 4, . . .}) = (1 + e−2λ ). 2 204. Convergencia de la distribuci´ on binomial a la Poisson. Para cada entero positivo n, sea Xn con distribuci´ on bin(n, λ/n) con λ > 0. Demuestre que para k = 0, 1, . . . l´ım P (Xn = k) = e−λ

n→∞

68

λk k!

Distribuci´ on binomial negativa. Suponga una sucesi´ on infinita de ensayos independientes Bernoulli en donde la probabilidad de ´exito en cada ensayo es p. Sea X el n´ umero de fracasos antes de obtener el r-´esimo ´exito. Se dice entonces que X tiene una distribuci´ on binomial negativa con par´ ametros r y p. Se escribe X ∼ bin beg(r, p) y para x = 0, 1 . . .   r+x−1 pr (1 − p)x . f (x) = P (X = x) = x Es claro que esta distribuci´ on es una generalizaci´ on de la distribuci´ on geom´etrica, la cual se obtiene cuando r = 1. Se puede demostrar que E(X) = Var(X) =

r(1 − p) p r(1 − p) . p2

EJERCICIOS 205. Compruebe que la funci´ on de densidad de la distribuci´ on bin neg(r, p) efectivamente lo es. 206. Sea X con distribuci´ on bin neg(r, p). Demuestre que r(1 − p) . p r(1 − p) . b) Var(X) = p2

a) E(X) =

Distribuci´ on hipergeom´ etrica. Suponga que se tiene un conjunto de N objetos de los cuales K son de una primera clase y N −K son de una segunda clase. Suponga que de este conjunto se toma una muestra de tama˜ no n, la muestra es sin reemplazo y el orden de los objetos seleccionados no importa. Se define X como el n´ umero de objetos de la primera clase contenidos en la muestra seleccionada. Entonces X puede tomar los valores 0, 1, 2, . . . , n, suponiendo n ≤ K. Decimos que X tiene una distribuci´ on hipergeom´etrica con par´ ametros N , K y n. Se escribe X ∼ hipergeo(N, K, n) y para x = 0, 1, . . . , n    N −K K n−x x   . f (x) = P (X = x) = N n Es posible comprobar que

K , N K N −K N −n . Var(X) = n N N N −1 E(X) = n

69

EJERCICIOS 207. Compruebe que la funci´ on de densidad de la distribuci´ on hipergeo(N, K, n) efectivamente lo es. 208. Sea X con distribuci´ on hipergeo(N, K, n). Demuestre que cuando N, K y N −K tienden a infinito de tal forma que K/N → p y (N −K)/N → (1 − p) entonces   n px (1 − p)n−x . P (X = x) → x

2.7.

Distribuciones continuas

Ahora se estudian algunas distribuciones de probabilidad de variables aleatorias continuas. Algunas otras distribuciones continuas ser´ an estudiadas en el Cap´ıtulo 5 que trata sobre distribuciones de probabilidad que surgen en la estad´ıstica. Distribuci´ on uniforme continua. Se dice que X tiene distribuci´ on uniforme en el intervalo (a, b) y se escribe X ∼ unif(a, b), cuando para x ∈ (a, b), f (x) =

1 . b−a

En la figura 2.6 se muestra la gr´ afica de la funci´ on de densidad unif(a, b) fHxL

1 €€€€ 2

1

2

3

4

x

Figura 2.6: Funci´on de densidad unif(a, b) con a = 1 y b = 3. con a = 1 y b = 3. Es f´ acil verificar que E(X) = Var(X) =

70

a+b , 2 (b − a)2 . 12

EJERCICIOS 209. Compruebe que la funci´ on de densidad de la distribuci´ on unif(a, b) efectivamente lo es. Calcule adem´ as la correspondiente funci´ on de distribuci´ on. Grafique ambas funciones. 210. Sea X con distribuci´ on unif(a, b). Demuestre que a+b . 2 bn+1 − an+1 b) E(X n ) = . (n + 1)(b − a)

a) E(X) =

c) Var(X) =

(b − a)2 . 12

211. Sea X con distribuci´ on unif(0, 1). Demuestre que E(X n ) = 1/(n + 1). 212. Sea X con distribuci´ on unif(−1, 1). Demuestre que   1 si n es par, E(X n ) = n+1  0 si n es impar.

213. Sea X con distribuci´ on unif(0, 1). Obtenga la distribuci´ on de a) Y = 10X − 5.

b) Y = 4X(1 − X).

214. Sea X con distribuci´ on unif(0, 1) y sea 0 < p < 1. Demuestre que la variable aleatoria Y = 1 + ⌊ln X/ ln p⌋ tiene distribuci´ on geo(p). La expresi´ on ⌊x⌋ denota la parte entera de x. Distribuci´ on exponencial. Se dice que X tiene una distribuci´ on exponencial con par´ ametro λ > 0 y se escribe X ∼ exp(λ) cuando para x > 0, f (x) = λe−λx . La gr´ afica de la funci´ on de densidad exponencial para λ = 3 aparece en la figura 2.7. Es muy sencillo verificar que E(X) = Var(X) =

1 , λ 1 . λ2

EJERCICIOS 215. Compruebe que la funci´ on de densidad de la distribuci´ on exp(λ) efectivamente lo es. 71

fHxL 3 2 1

1

2

x

Figura 2.7: Funci´on de densidad exp(λ) con λ = 3.

216. Sea X con distribuci´ on exp(λ). Demuestre que a) F (x) = 1 − e−λx para x > 0. b) F (x + y) − F (y) = F (x)[1 − F (y)] para x, y > 0. 217. Sea X con distribuci´ on exp(λ). Demuestre que a) E(X) =

1 . λ

b) Var(X) =

1 . λ2

218. Sea X con distribuci´ on exp(λ). Demuestre que P (X ≥ x + y | X ≥ x) = P (X ≥ y). La distribuci´ on exponencial es la u ´nica distribuci´ on continua que satisface esta propiedad llamada “p´erdida de memoria”. 219. Sea X una variable aleatoria con funci´ on de distribuci´ on F (x) continua, estrictamente creciente y tal que 0 < F (x) < 1. Demuestre que la variable aleatoria Y = − ln F (X) tiene distribuci´ on exp(λ) con λ = 1. 220. Se dice que X tiene distribuci´ on exponencial bilateral (o doble) con par´ ametro λ > 0 si su funci´ on de densidad es, para x en R, 1 f (x) = λe−λ|x| . 2 Demuestre que a) E(X) = 0. b) Var(X) =

2 . λ2

Distribuci´ on gama. Se dice que X tiene distribuci´ on gama con par´ ametros λ > 0 y n > 0 si para x > 0, f (x) =

λ (λx)n−1 e−λx . Γ(n) 72

En tal caso se escribe X ∼ gama(n, λ). La gr´ afica de la funci´ on de densidad fHxL 1 €€€€ 5

1 €€€€€€€ 10

1

2

4

3

x

Figura 2.8: Funci´on de densidad gama(λ, n) con λ = 3 y n = 5. gama para λ = 3 y n = 5 aparece en la figura 2.8. El t´ermino Γ(n) es la “funci´ on gama” definida como sigue Z ∞ Γ(n) = tn−1 e−t dt 0

para valores de n tal que la integral es convergente. Esta funci´ on satisface las siguientes propiedades 1. Γ(n + 1) = nΓ(n). 2. Γ(n + 1) = n! para n entero positivo. 3. Γ(2) = Γ(1) = 1. √ 4. Γ(1/2) = π. Observe que cuando n = 1 la distribuci´ on gama(n, λ) se reduce a la distribuci´ on exp(λ). Resolviendo un par de integrales se puede demostrar que E(X) = Var(X) =

n , λ n . λ2

EJERCICIOS 221. Compruebe que la funci´ on de densidad de la distribuci´ on gama(n, λ) efectivamente lo es. 222. Demuestre que la distribuci´ on gama(n, λ) con n = 1 se reduce a la distribuci´ on exp(λ).

73

223. Sea X con distribuci´ on gama(n, λ). Demuestre que la funci´ on de distribuci´ on de X es, para x > 0, F (x) = 1 −

n−1 X j=0

e−λx

(λx)j . j!

224. Sea X con distribuci´ on gama(n, λ). Demuestre que n a) E(X) = . λ Γ(m + n) b) E(X m ) = m para m = 1, 2, . . .. λ Γ(n) n c) Var(X) = 2 . λ 225. Demuestre las siguientes propiedades de la funci´ on gama. a) b) c) d)

Γ(n + 1) = nΓ(n). Γ(n + 1) = n! para n entero. Γ(2) = Γ(1) = 1. √ Γ(1/2) = π. 1 · 3 · 5 · · · (2n − 1) √ e) Γ(n + 1/2) = π para n entero. 2n

Distribuci´ on beta. Se dice que X tiene distribuci´ on beta con par´ ametros a > 0 y b > 0, y se escribe X ∼ beta(a, b) cuando para x ∈ (0, 1), f (x) =

1 xa−1 (1 − x)b−1 . B(a, b)

En la figura 2.9 aparece la gr´ afica de la funci´ on de densidad beta(a, b) para fHxL

2

1

0.5

1

x

Figura 2.9: Funci´on de densidad beta(a, b). De derecha a izquierda a = 2 y b = 6, a = 4 y b = 4, a = 6 y b = 2. La linea horizontal corresponde a a = 1 y b = 1. varios valores de los par´ ametros a y b. El t´ermino B(a, b) se conoce como la “funci´ on beta” y se define como sigue Z 1 B(a, b) = xa−1 (1 − x)b−1 dx, 0

74

para a > 0 y b > 0. Esta funci´ on satisface las siguientes propiedades. 1. B(a, b) = B(b, a). 2. B(a, b) =

Γ(a)Γ(b) . Γ(a + b)

En este caso E(X) = Var(X) =

a , a+b ab . (a + b + 1)(a + b)2

EJERCICIOS 226. Compruebe que la funci´ on de densidad de la distribuci´ on beta(a, b) efectivamente lo es. 227. Sea X con distribuci´ on beta(a, b). Demuestre que a . a+b B(a + n, b) b) E(X n ) = . B(a, b) ab c) Var(X) = . (a + b + 1)(a + b)2

a) E(X) =

228. Sea X con distribuci´ on beta(a, b). Demuestre que   E(X)(1 − E(X)) −1 . a) a = E(X) Var(X)   E(X)(1 − E(X)) −1 . b) b = (1 − E(X)) Var(X) E(X)(1 − E(X)) c) a + b = − 1. Var(X) 229. Demuestre las siguientes propiedades de la funci´ on beta. a) B(a, b) = B(b, a). Γ(a)Γ(b) b) B(a, b) = . Γ(a + b) 1 c) B(a, 1) = . a 1 d ) B(1, b) = . b a e) B(a + 1, b) = B(a, b + 1). b a B(a, b). f ) B(a + 1, b) = a+b 75

b B(a, b). a+b h) B(1/2, 1/2) = π. g) B(a, b + 1) =

230. Sea X con distribuci´ on beta(1/2, 1/2). En este caso se dice que X tiene una distribuci´ on arcoseno. a) Calcule y grafique f (x). b) Demuestre directamente que f (x) es una funci´ on de densidad. c) Calcule directamente que E(X) = 1/2 y Var(X) = 1/8. 231. Sea X con distribuci´ on beta(a, b).   0 xa F (x) =  1

Demuestre que para a > 0 y b = 1, si x ≤ 0, si 0 < x < 1, si x ≥ 1.

232. Sea X con distribuci´ on beta(a, b). Demuestre que para a = 1 y b > 0,  si x ≤ 0,  0 b 1 − (1 − x) si 0 < x < 1, F (x) =  1 si x ≥ 1.

233. Demuestre que X tiene distribuci´ on beta(a, b) si y solo si 1 − X tiene distribuci´ on beta(b, a). 234. Demuestre que la distribuci´ on beta(a, b) con a = b = 1 se reduce a la distribuci´ on unif(0, 1).

Distribuci´ on normal. Esta es posiblemente la distribuci´ on de probabilidad de mayor importancia. Se dice que X tiene una distribuci´ on normal o Gausiana si su funci´ on de densidad es f (x) = √

1 2πσ 2

e−(x−µ)

2 /2σ 2

,

en donde µ ∈ R y σ 2 > 0 son dos par´ ametros. Se escribe X ∼ N(µ, σ 2 ). La gr´ afica de la funci´ on de densidad normal aparece en la Figura 2.10 para µ = 3 y σ 2 = 2. No es dif´ıcil probar que E(X) = µ, Var(X) = σ 2 . En particular se dice que X tiene una distribuci´ on normal “est´ andar” si µ = 0 y σ 2 = 1. En este caso particular 1 2 f (x) = √ e−x /2 . 2π Es posible transformar una variable aleatoria normal no est´ andar en una est´ andar mediante la siguiente operaci´ on llamada “estandarizaci´ on”. 76

fHxL

1 €€€€€€€ 20

1

2

3

4

5

x

6

Figura 2.10: Funci´on de densidad de la distribuci´on N(µ, σ2 ) para µ = 3 y σ2 = 2.

Proposici´ on 34 Si X ∼ N(µ, σ 2 ) entonces Z =

X −µ ∼ N(0, 1). σ

Demostraci´ on. FZ (z) = P (Z ≤ z) X −µ = P( ≤ z) σ = P (X ≤ µ + zσ) = FX (µ + zσ).

Por lo tanto fZ (z) = σfX (µ + zσ) 1 2 e−z /2 . = √ 2π  Es tambi´en f´ acil de demostrar que el rec´ıproco del resultado anterior es v´ alido. Com´ unmente se usa la letra Z para denotar una variable aleatoria con distribuci´ on N(0, 1). En particular se usa la notaci´ on Φ(z) = P (Z ≤ z). EJERCICIOS 235. Demuestre que la funci´ on de densidad de la distribuci´ on N(µ, σ 2 ) a) es efectivamente una funci´ on de densidad. b) es sim´etrica respecto de x = µ. c) alcanza su m´ aximo en x = µ. d ) tiene puntos de inflexi´ on en x = µ ± σ. 236. Sea X con distribuci´ on N(µ, σ 2 ). Demuestre que a) E(X) = µ. 77

b) Var(X) = σ 2 . 237. Sea X con distribuci´ on N(µ, σ 2 ). Demuestre que  0 si n es impar, n E|X − µ| = 1 · 3 · 5 · · · (n − 1)σ n si n es par. 238. Demuestre que X tiene distribuci´ on N(µ, σ 2 ) si y solo si Z = (X −µ)/σ tiene distribuci´ on N(0, 1). 239. Sea X con distribuci´ on N (0, 1). Demuestre que   0 si n es impar, E(X n ) = (2n)!  n si n es par. 2 n!

240. Sea X con distribuci´ on N(µ, σ 2 ). Demuestre que Y = aX + b, con a 6= 0, tiene una distribuci´ on normal. Encuentre los par´ ametros correspondientes.

241. Sea X con distribuci´ on N(µ, σ 2 ). Demuestre que Y = −X tiene una distribuci´ on normal. Encuentre los par´ ametros correspondientes. 242. Sea X con distribuci´ on N(0, 1). Demuestre que X 2 tiene una distribu2 ci´ on χ (1). Rec´ ıprocamente, ¿ser´ a cierto que si Y tiene distribuci´ on √ 2 χ (1) entonces Y tiene distribuci´ on N(0, 1)? 243. Sea X con distribuci´ on N(0, 1). Encuentre la funci´ on de densidad de Y = |X|. 244. (El cociente de Mills.) Sea φ(x) la funci´ on de densidad de la distribuci´ on normal est´ andar y sea Φ(x) la correspondiente funci´ on de distribuci´ on. Demuestre que a) φ′ (x) + xφ(x) = 0. 1 1 1 − Φ(x) 1 1 3 b) − 3 < < − 3+ 5 x x φ(x) x x x

para x > 0.

Distribuci´ on log normal. Si X tiene distribuci´ on N(µ, σ 2 ) entonces Y = X 2 e tiene una distribuci´ on log normal(µ, σ ) y su funci´ on de densidad es, para y ∈ (0, ∞),   (ln y − µ)2 1 exp − f (y) = √ . 2σ 2 y 2πσ 2 La gr´ afica de la funci´ on de densidad de la distribuci´ on lognormal (µ, σ 2 ) 2 aparece en la figura 2.11 para µ = 3 y σ = 2. Se puede demostrar que E(Y ) = exp(µ + σ 2 /2), Var(Y ) = exp(2µ + 2σ 2 ) − exp(2µ + σ 2 ). Otras distribuciones continuas de inter´es se encuentran en el cap´ıtulo sobre distribuciones muestrales. 78

fHxL

1 €€€€€€€ 20

5

10

15

20

x

Figura 2.11: Funci´on de densidad de la distribuci´on log normal(µ, σ 2 ) con µ = 3 y σ 2 = 2.

EJERCICIOS 245. Demuestre que la funci´ on de densidad de una distribuci´ on log normal(µ, σ 2 ) efectivamente lo es. 246. Sea X con distribuci´ on log normal(µ, σ 2 ). Demuestre que a) E(X) = exp{µ + σ 2 /2}. b) Var(X) = exp{2µ + 2σ 2 } − exp{2µ + σ 2 }. c) E(ln X) = µ.

d ) Var(ln X) = σ 2 .

79

Cap´ıtulo 3

Vectores aleatorios En este cap´ıtulo se extiende el concepto de variable aleatoria con valores en R a variables aleatorias con valores en Rn y se estudian algunos conceptos relacionados. Recordemos que tenemos siempre como elemento base un espacio de probabilidad (Ω, F, P ).

3.1.

Vectores aleatorios

Definici´ on 20 Un vector aleatorio es una funci´ on X : Ω → Rn tal que para cualquier conjunto B en B(Rn ), se cumple que X −1 B es un elemento de F.

Un vector aleatorio puede representarse en la forma X = (X1 , . . . , Xn ) en donde cada Xi es una funci´ on de Ω en R. Demostraremos a continuaci´ on que la definici´ on anterior es equivalente a definir un vector aleatorio como un vector de variables aleatorias.

Proposici´ on 35 Una funci´ on X = (X1 , . . . , Xn ) : Ω → Rn es un vector aleatorio si y solo si cada coordenada Xi : Ω → Rn es una variable aleatoria.

Demostraci´ on. Sea (X1 , . . . , Xn ) un vector aleatorio. Entonces la imagen inversa de cualquier conjunto de Borel de Rn es un elemento de la σ-´ algebra del espacio de probabilidad. En particular, la imagen inversa del conjunto B × Ω × · · · × Ω pertenece a F para cualquier Boreliano B de R. Pero esta imagen inversa es simplemente X1−1 B. Esto demuestra que X1 es variable aleatoria y de manera an´ aloga se procede con las otras coordenadas del vector. Suponga ahora que cada coordenada de una funci´ on (X1 , . . . , Xn ) : 80

Ω → Rn es una variable aleatoria. Considere la colecci´ on B = {B ∈ B(Rn ) : −1 (X1 , . . . , Xn ) B ∈ F}. Como cada coordenada es una variable aleatoria, los conjuntos de Borel de Rn de la forma B1 × · · · × Bn , en donde cada Bi es un Boreliano de R, es un elemento de la colecci´ on B. Entonces B(R) × · · · × B(R) ⊆ B ⊆ B(Rn ).

Es f´ acil demostrar que la colecci´ on B es una σ-´ algebra. Asi que σ(B(R) × · · · × B(R)) ⊆ B ⊆ B(Rn ).

Pero ambos extremos de esta ecuaci´ on coinciden. De modo que B = B(Rn ) y por lo tanto la funci´ on (X1 , . . . , Xn ) es un vector aleatorio.  Para simplificar la escritura donde sea posible se usan u ´nicamente vectores aleatorios bidimensionales, esto es, de la forma (X, Y ). En la mayor´ıa de los casos las definiciones y resultados son f´ acilmente extendidos a dimensiones mayores. Definici´ on 21 Se dice que el vector (X, Y ) es discreto si cada coordenada es una v.a. discreta y es continuo en caso de que cada coordenada lo sea.

3.2.

Distribuci´ on conjunta

A menudo es necesario considerar probabilidades de eventos que involucran a dos o mas variables aleatorias al mismo tiempo y de manera conjunta. El concepto fundamental en este caso es el de funci´ on de distribuci´ on conjunta que se define a continuaci´ on.

Definici´ on 22 La funci´ on de distribuci´ on de un vector (X, Y ), denotada por F (x, y) : R2 → [0, 1], se define como sigue F (x, y) = P (X ≤ x, Y ≤ y).

En palabras, la funci´ on F (x, y) es la probabilidad de que X sea menor o igual a x y al mismo tiempo Y sea menor o igual que y, esto es la probabilidad del evento (X ≤ x) ∩ (Y ≤ y). A la funci´ on F (x, y) se le conoce tambi´en como “funci´ on de distribuci´ on bivariada” de X y Y . Cuando sea necesario especificarlo se escribe FX,Y (x, y) en lugar de F (x, y) y debe ser claro la forma de extender la definici´ on para el caso de un vector aleatorio multidimensional. Las funciones de distribuci´ on conjuntas satisfacen propiedades semejantes al caso unidimensional. Estudiaremos a continuaci´ on algunas de ellas. Proposici´ on 36 La distribuci´ on conjunta F (x, y) satisface las siguientes propiedades. 81

1. 2.

l´ım F (x, y) = 1.

x,y→∞

l´ım

x,y→−∞

F (x, y) = 0.

3. F (x, y) es no decreciente en cada variable. 4. F (x, y) es continua por la derecha en cada variable. 5. Si a < b y c < d entonces F (b, d) − F (a, d) − F (b, c) + F (a, c) ≥ 0. La demostraci´ on de las propiedades (1)-(4) es completamente an´ aloga al caso unidimensional y por tanto la omitiremos. Respecto a la propiedad (5) observe que F (b, d) − F (a, d) − F (b, c) + F (a, c) = P (a < X ≤ b, c < Y ≤ d). De modo que (5) se traduce simplemente en solicitar que la probabilidad de que (X, Y ) tome valores en el cuadrado (a, b]×(c, d] sea no negativa. A diferencia del caso unidimensional, las propiedades (1) a (4) no son suficientes para asegurar que una funci´ on F (x, y) asigna probabilidad no negativa a cualquier cuadrado (a, b] × (c, d]. V´ease por ejemplo el ejercicio 250 en la p´ agina 83 en donde tal condici´ on falla. Por tanto en el caso de dimensi´ on dos y superiores es necesario pedir tal condici´ on. Definici´ on 23 Una funci´ on cualquiera F (x, y) : R2 → [0, 1], no necesariamente definida en t´erminos de un vector aleatorio, es una funci´ on de distribuci´ on conjunta si cumple con las cinco propiedades enunciadas en la proposici´ on anterior. Para tres dimensiones se dice que F (x1 , x2 , x3 ) : R3 → [0, 1] es una funci´ on de distribuci´ on si cumple las primeras cuatro propiedades anteriores y la quinta se reemplaza por la siguiente condici´ on. Para cualesquiera n´ umeros reales a1 < b1 , a2 < b2 y a3 < b3 , F (b1 , b2 , b3 ) − F (a1 , b2 , b3 ) − F (b1 , a2 , b3 ) − F (b1 , b2 , a3 )

+F (a1 , a2 , b3 ) + F (a1 , b2 , a3 ) + F (b1 , a2 , a3 ) −F (a1 , a2 , a3 ) ≥ 0.

Se puede demostrar que el lado izquierdo de esta desigualdad corresponde a la probabilidad del evento (a1 < X1 ≤ b1 , a2 < X2 ≤ b2 , a3 < X3 ≤ b3 ) y entonces el requisito es que naturalmente este n´ umero sea no negativo. M´ as generalmente, una funci´ on F (x1 , . . . , xn ) : Rn → [0, 1] es una funci´ on de distribuci´ on si cumple las primeras cuatro propiedades anteriores y adicionalmente para cualesquiera n´ umeros reales a1 < b1 , a2 < b2 , . . ., an < bn , X (−1)#a F (x1 , . . . , xn ) ≥ 0, xi ∈{ai ,bi }

82

en donde #a es el n´ umero de veces que alguna de las variables xi toma el valor ai en la evaluaci´ on de la funci´ on F . Nuevamente la suma corresponde a la probabilidad del evento (a1 < X1 ≤ b1 , . . . , an < Xn ≤ bn ), y la condici´ on establece simplemente que este n´ umero sea no negativo. Finalmente enunciamos un resultado que establece la importancia de la funci´ on de distribuci´ on y que es consecuencia del caso unidimensional.

Proposici´ on 37 Sea F (x1 , . . . , xn ) : Rn → R una funci´ on que satisface las cinco propiedades anteriores. Entonces existe un espacio de probabilidad y una vector aleatorio cuya funci´ on de distribuci´ on es F (x1 , . . . , xn ).

EJERCICIOS 247. Grafique y demuestre que las siguientes funciones son de distribuci´ on. 1 1 a) F (x, y) = (1 − e−x )( + tan−1 y) para x ≥ 0. 2 π b) F (x, y) = 1 − e−x − e−y + e−x−y para x, y ≥ 0. 248. Investigue si las siguientes funciones son de distribuci´ on. a) F (x, y) = 1 − e−xy para x, y ≥ 0.

b) F (x, y) = 1 − e−x−y para x, y ≥ 0.

249. Demuestre que la siguiente funci´ on no es de distribuci´ on.  0 si x + y < 0, F (x, y) = 1 si x + y ≥ 0. 250. Demuestre que la siguiente funci´ on no es de distribuci´ on.  m´ın{1, m´ ax{x, y}} si x, y > 0, F (x, y) = 0 otro caso. 251. Sean F (x) y G(x) dos funciones de distribuci´ on. Demuestre o proporcione un contraejemplo para las siguientes afirmaciones. a) F (x)G(x) es una funci´ on de distribuci´ on univariada. b) F (x)G(y) es una funci´ on de distribuci´ on bivariada. 252. Diga falso o verdadero. Justifique en cada caso. a) P (X > x, Y > y) = 1 − P (X ≤ x, Y ≤ y). b) P (X ≤ x, Y ≤ y) ≤ P (X ≤ x).

c) P (X ≤ x) = P (X ≤ x, Y ≤ x) + P (X ≤ x, Y > x). 83

d ) P (X + Y ≤ x) ≤ P (X ≤ x). e) P (XY < 0) ≤ P (X < 0).

253. Sean X y Y variables aleatorias con funci´ on de distribuci´ on conjunta F (x, y). Demuestre que para cualesquiera n´ umeros reales a < b y c < d, P (a < X ≤ b, c < Y ≤ d) = F (b, d) + F (a, c) − F (a, d) − F (b, c). 254. Sean X1 , X2 y X3 variables aleatorias con funci´ on de distribuci´ on conjunta F (x1 , x2 , x3 ). Demuestre que para cualesquiera n´ umeros reales a1 < b1 , a2 < b2 y a3 < b3 , la probabilidad P (a1 < X1 ≤ b1 , a2 < X2 ≤ b2 , a3 < X3 ≤ b3 ) es igual a F (b1 , b2 , b3 ) − F (a1 , b2 , b3 ) − F (b1 , a2 , b3 ) − F (b1 , b2 , a3 ) +F (a1 , a2 , b3 ) + F (a1 , b2 , a3 ) + F (b1 , a2 , a3 ) −F (a1 , a2 , a3 ). 255. Sea (X, Y ) un vector con funci´ on de distribuci´ on conjunta FX,Y (x, y). 2 Demuestre que para todo (x, y) en R , p FX (x) + FY (y) − 1 ≤ FX,Y (x, y) ≤ FX (x)FY (y).

256. Considere el espacio Ω = [0, 1] × [0, 1] junto con σ(B[0, 1] × B[0, 1]) y P la medida de probabilidad uniforme sobre Ω. Sea X : Ω → R2 el vector aleatorio dado por X(ω1 , ω2 ) = (ω1 ∧ ω2 , ω1 ∨ ω2 ). Demuestre que X es efectivamente un vector aleatorio y encuentre su funci´ on de distribuci´ on. 257. Sea X con funci´ on de distribuci´ on F (x). Demuestre que F (x) es continua en x = x0 si y solo si P (X = x0 ) = 0.

3.3.

Densidad conjunta

Como en el caso unidimensional, los vectores discretos o absolutamente continuos tienen asociada una funci´ on de densidad la cual se define a continuaci´ on.

Definici´ on 24 La funci´ on de densidad de un vector discreto (X, Y ) es la funci´ on f (x, y) : R2 → R dada por f (x, y) = P (X = x, Y = y).

84

Es evidente que la funci´ on de densidad de un vector discreto es una funci´ on no negativa y tal que XX f (x, y) = 1. x

y

Rec´ıprocamente, toda funci´ on no negativa f (x, y) : R2 → R que sea estrictamente positiva u ´nicamente en un subconjunto discreto de R2 y que sume uno, se llama funci´ on de densidad conjunta. Ejemplo 12 La funci´ on f (x, y) =



0

 1 x+y 2

para x, y = 1, 2, . . . otro caso.

es de densidad pues es no negativa y suma uno, ∞ X

f (x, y) =

x,y=1

∞ X

x,y=1

1 2x+y

=(

∞ X 1 2 ) = 1. 2x x=1

La definici´ on de funci´ on de densidad de un vector continuo es la siguiente.

Definici´ on 25 Sea (X, Y ) un vector continuo con funci´ on de distribuci´ on F (x, y). Se dice que (X, Y ) es “absolutamente continuo” si existe una funci´ on no negativa e integrable f (x, y) : R2 → R tal que para todo (x, y) en R2 se cumple la igualdad Z x Z y F (x, y) = f (u, v) dv du. −∞

−∞

A la funci´ on f (x, y) se le denota por fX,Y (x, y) y se le llama funci´ on de densidad conjunta de X y Y .

Es claro que la funci´ on de densidad conjunta f (x, y) de un vector absolutamente continuo es no negativa y cumple la condici´ on Z ∞Z ∞ f (x, y) dx dy = 1. −∞

−∞

Rec´ıprocamente, toda funci´ on no negativa f : R2 → R que integre uno se llama “funci´ on de densidad”. En particular, cuando f (x, y) es continua, f (x, y) =

∂2 F (x, y). ∂y∂x

85

EJERCICIOS 258. Grafique y demuestre que las siguientes son funciones de densidad. 1 para 0 < x < a, 0 < y < b. ab b) f (x, y) = 4xy para 0 ≤ x, y ≤ 1.

a) f (x, y) =

c) f (x, y) = 6x2 y para 0 ≤ x, y ≤ 1.

d ) f (x, y) = 49 x2 y 2 para −1 ≤ x, y ≤ 1. e) f (x, y) = e−x−y para x, y > 0. f ) f (x, y) = e−x para 0 < y < x. 259. Calcule la constante c que hace a f una funci´ on de densidad. a) f (x) = cx para 0 ≤ x ≤ 1.

b) f (x, y) = cx para 0 < y < x < 1. c) f (x, y) = c(x + y) para 0 ≤ x, y ≤ 1.

d ) f (x, y) = c(x2 + 21 xy) para 0 < x < 1, 0 < y < 2. e) f (x, y, z) = c(x + y + z) para 0 ≤ x, y, z ≤ 1.

f ) f (x1 , . . . , xn ) = c(x1 + · · · + xn ) para 0 ≤ x1 , . . . , xn ≤ 1.

260. Encuentre la funci´ on de densidad del vector (X, Y ) cuya funci´ on de distribuci´ on es 1 1 a) F (x, y) = (1 − e−x )( + tan−1 y) para x ≥ 0. 2 π b) F (x, y) = 1 − e−x − e−y + e−x−y para x, y ≥ 0. 261. Encuentre la funci´ on de distribuci´ on del vector (X, Y ) cuya funci´ on de densidad es 1 para 0 < x < a, 0 < y < b. ab b) f (x, y) = e−x−y para x, y > 0.

a) f (x, y) =

c) f (x, y) = e−y para 0 < x < y. d ) f (x, y) = 2e−x−y para 0 < x < y. 262. Sean f (x) y g(x) dos funciones de densidad. Demuestre o proporcione un contraejemplo para las siguientes afirmaciones. a) f (x)g(x) es una funci´ on de densidad univariada. b) f (x)g(y) es una funci´ on de densidad bivariada. 263. Sean X y Y independientes ambas con distribuci´ on exp(λ). Encuentre la funci´ on de densidad y de distribuci´ on de a) W = m´ ax{X, Y }. b) W = m´ın{X, Y }.

86

3.4.

Distribuci´ on marginal

Dada la funci´ on de distribuci´ on conjunta F (x, y) de un vector aleatorio (X, Y ) es posible obtener la funci´ on de distribuci´ on de cada variable aleatoria por separado mediante el siguiente procedimiento.

Definici´ on 26 Sea (X, Y ) un vector con funci´ on de distribuci´ on F (x, y). A la funci´ on F (x) = l´ım F (x, y) y→∞

se le conoce como la “funci´ on de distribuci´ on marginal” de X. An´ alogamente se define la funci´ on de distribuci´ on marginal de Y como F (y) = l´ım F (x, y). x→∞

No es dif´ıcil verificar que las funciones de distribuci´ on marginales son efectivamente funciones de distribuci´ on univariadas. En el caso de que se tenga una funci´ on de densidad conjunta, se pueden obtener las funciones de densidad individuales como indica la siguiente definici´ on.

Definici´ on 27 Sea (X, Y ) un vector absolutamente continuo con funci´ on de densidad f (x, y). A la funci´ on Z ∞ f (x) = f (x, y) dy −∞

se le conoce como la “funci´ on de densidad marginal” de X. An´ alogamente se define la funci´ on de densidad marginal de Y como Z ∞ f (y) = f (x, y) dx. −∞

Si (X, Y ) es un vector discreto la integral se reemplaza por una suma.

Tampoco es dif´ıcil comprobar que las funciones de densidad marginales son efectivamente funciones de densidad univariadas. Las dos definiciones anteriores pueden extenderse de manera evidente cuando se tenga un vector aleatorio de cualquier dimensi´ on finita.

87

EJERCICIOS 264. Suponiendo el caso absolutamente continuo, demuestre que la funci´ on de densidad marginal, Z ∞ fX,Y (x, y)dy x 7→ fX (x) = −∞

es efectivamente una funci´ on de densidad. 265. Demuestre que la funci´ on de distribuci´ on marginal x 7→ FX (x) = l´ım FX,Y (x, y) y→∞

es efectivamente una funci´ on de distribuci´ on. 266. Encuentre las funciones de distribuci´ on marginales del vector (X, Y ) cuya funci´ on de distribuci´ on conjunta es a) F (x, y) = (1 − e−x )(1 − e−y ) para x, y > 0. 2

2

b) F (x, y) = (1 − e−x )(1 − e−y ) para x, y > 0.

267. Encuentre las funciones de densidad marginales del vector (X, Y ) cuya funci´ on de densidad conjunta es 1 para 0 < x < a, 0 < y < b. ab b) f (x, y) = 4xy para 0 < x, y < 1.

a) f (x, y) =

c) f (x, y) = 24x(1 − x − y) para x, y > 0 y x + y < 1. 1 d ) f (x, y) = (x + 2y) para 0 < x < 2 y 0 < y < 1. 4 2 e) f (x, y) = (4x + y) para 0 < x, y < 1. 5 1 f ) f (x, y) = para 0 < y < x < 1. x 268. Sea 0 < a < 1 y defina la funci´ on f (x, y) = ax (1 − a)y para x, y = 1, 2, . . . a) Demuestre que f (x, y) es una funci´ on de densidad. b) Calcule las funciones de densidad marginales.

3.5.

Distribuci´ on condicional

La siguiente definici´ on es una extensi´ on del concepto elemental de probabilidad condicional de eventos.

88

Definici´ on 28 Sea (X, Y ) un vector con funci´ on de densidad fX,Y (x, y) y sea y tal que fY (y) 6= 0. A la funci´ on x 7→ fX|Y (x|y) =

fX,Y (x, y) fY (y)

se le conoce como la “funci´ on de densidad condicional” de X dado que Y toma el valor y.

No es dif´ıcil comprobar que la funci´ on x 7→ fX|Y (x|y) es efectivamente una funci´ on de densidad, tanto en el caso discreto como en el continuo. Observe que el valor y de Y permanece fijo y la funci´ on es vista como una funci´ on de la variable real x. Se pueden definir tambi´en funciones de distribuci´ on condicionales de la siguiente forma.

Definici´ on 29 Sea (X, Y ) un vector aleatorio absolutamente continuo con funci´ on de densidad fX,Y (x, y) y sea y tal que fY (y) 6= 0. A la funci´ on Z x x 7→ FX|Y (x|y) = fX|Y (u|y) du −∞

se le conoce como la “funci´ on de distribuci´ on condicional” de X dado que Y toma el valor y. Cuando el vector aleatorio (X, Y ) es discreto la integral se substituye por la suma correspondiente.

Nuevamente resulta que la funci´ on x 7→ FX|Y (x|y) es efectivamente una funci´ on de distribuci´ on. En el caso absolutamente continuo tenemos la relaci´ on fX|Y (x|y) =

∂ F (x|y). ∂x X|Y

EJERCICIOS 269. Demuestre que la funci´ on de distribuci´ on condicional Z x x 7→ FX|Y (x|y) = fX|Y (u|y) du −∞

es efectivamente una funci´ on de distribuci´ on. 270. Demuestre que la funci´ on de densidad condicional x 7→ fX|Y (x|y) =

fX,Y (x, y) fY (y)

es efectivamente una funci´ on de densidad. 89

271. Sea (X, Y ) un vector aleatorio absolutamente continuo. Demuestre la f´ ormula ∂ F (x|y). fX|Y (x|y) = ∂x X|Y 272. (P´erdida de memoria en la distribuci´ on exponencial.) Sea X con distribuci´ on exp(λ) y sea t > 0 fijo. Demuestre que la distribuci´ on condicional de X − t dado que X ≥ t sigue siendo exp(λ). 273. Calcule fX|Y (x|y) para las siguientes funciones de densidad conjunta. 1 para 0 < x < a, 0 < y < b. ab b) f (x, y) = 4xy para 0 < x, y < 1.

a) f (x, y) =

c) f (x, y) = 24x(1 − x − y) para x, y > 0 y x + y < 1. 1 d ) f (x, y) = (x + 2y) para 0 < x < 2 y 0 < y < 1. 4 2 e) f (x, y) = (4x + y) para 0 < x, y < 1. 5 1 f ) f (x, y) = para 0 < y < x < 1. x 274. Calcule FX|Y (x|y) para las siguientes funciones de distribuci´ on conjunta. 1 1 a) F (x, y) = (1 − e−x )( + tan−1 y) para x ≥ 0. 2 π b) F (x, y) = 1 − e−x − e−y + e−x−y para x, y ≥ 0. 275. Se hacen tres lanzamientos de una moneda equilibrada. Sea X la v.a. que denota el n´ umero de caras que se obtienen en los dos primeros lanzamientos y sea Y la v.a. que denota el n´ umero de cruces en los dos u ´ltimos lanzamientos. Calcule a) fX,Y (x, y). b) fX (x) y fY (y). c) fY |X (y|x) para x = 0, 1, 2. 276. Sea (X, Y ) un vector con funci´ on de densidad fX,Y (x, y) =

x+y 8

para 0 ≤ x, y ≤ 2.

Compruebe que f (x, y) es una funci´ on de densidad y calcule a) P (Y > X). b) P (X > 1 | Y < 1). c) fX (x) y fY (y).

d ) fX|Y (x|y) y fY |X (y|x).

e) FX,Y (x, y), FX (x) y FY (y). 90

277. Sea (X, Y ) un vector con funci´ on de densidad fX,Y (x, y) = 8xy para 0 < x < y < 1. Compruebe que f (x, y) es una funci´ on de densidad y calcule a) P (X + Y < 1). b) P (Y < 1/2 | X < 1/2). c) fX (x) y fY (y).

d ) fX|Y (x|y) y fY |X (y|x). 278. Sea (X, Y ) un vector con funci´ on de densidad fX,Y (x, y) = 4x(1 − y) para 0 < x, y < 1. Compruebe que f (x, y) es efectivamente una funci´ on de densidad y calcule a) FX,Y (x, y), FX (x) y FY (y). b) P (X > 1/2). c) P (1/4 < Y < 3/4 | X < 1/2).

d ) fX (x) y fY (y).

e) fX|Y (x|y) y fY |X (y|x).

3.6.

Independencia de variables aleatorias

Podemos ahora definir el importante concepto de independencia de variables aleatorias. Para ello usaremos la siempre existente funci´ on de distribuci´ on.

Definici´ on 30 Se dice que X y Y son independientes si para cada (x, y) en 2 R se cumple la igualdad FX,Y (x, y) = FX (x)FY (y).

Esta es una extensi´ on de la definici´ on de independencia de dos eventos A y B, P (A ∩ B) = P (A)P (B). Cuando la funci´ on de densidad conjunta fX,Y (x, y) existe entonces la igualdad anterior es equivalente a la expresi´ on fX,Y (x, y) = fX (x)fY (y). El concepto de independencia puede ser extendido claramente al caso de varias variables aleatorias de la forma siguiente. Se dice que X1 , X2 , . . . , Xn son independientes si para cualquier (x1 , x2 , . . . , xn ) en Rn se cumple FX1 ,X2 ,...,Xn (x1 , x2 , . . . , xn ) = FX1 (x1 )FX2 (x2 ) · · · FXn (xn ). 91

M´ as a´ un, una sucesi´ on infinita de variables aleatorias es independiente si cualquier subconjunto finito de ella lo es. Ejemplo 13 Sea (X, Y ) un vector aleatorio con funci´ on de densidad f (x, y) = 4xy para 0 ≤ x, y ≤ 1. La gr´ afica de esta funci´ on aparece en la Figura 3.1.

4 3 fHx,yL 2 1 0 0.25 0.5 x 0.75

1 0.75 0.5 y 0.25 10

Figura 3.1: Funci´on de densidad del Ejemplo 13 La funci´ on de densidad marginal de X se calcula como sigue. Para 0 ≤ x ≤ 1, Z ∞ fX (x) = f (x, y)dy −∞ 1

=

Z

4xydy

0

= 2x. Por lo tanto fX (x) = 2x para 0 ≤ x ≤ 1, An´ alogamente fY (y) = 2y para 0 ≤ y ≤ 1. En consecuencia X y Y son independientes pues para cada par (x, y) se cumple fX,Y (x, y) = fX (x)fY (y). EJERCICIOS 279. Demuestre la variable aleatoria constante X = c es independiente de cualquier otra variable aleatoria. 280. Sea X independiente de cualquier otra variable aleatoria. Demuestre que X es constante. 92

281. Demuestre que los eventos A y B son independientes si y solo si las variables aleatorias 1A y 1B lo son. 282. Determine si las siguientes son funciones de densidad de variables aleatorias independientes. 1 para 0 < x < a, 0 < y < b. ab b) f (x, y) = 2x para 0 < x, y < 1.

a) f (x, y) =

c) f (x, y) = 2e−x−y para 0 < x < y. d ) f (x, y) = e−x−y para x, y > 0. 3 e) f (x, y) = (x2 + y 2 ) para x, y ∈ [−1, 1]. 8 283. Determine si las siguientes son funciones de distribuci´ on de variables aleatorias independientes. a) F (x, y) = (1 − e−x )(1 − e−y ) para x, y > 0. 2

2

b) F (x, y) = (1 − e−x )(1 − e−y ) para x, y > 0.

284. Demuestre que X y Y son independientes si y solo si para cualesquiera n´ umeros reales x y y, P (X > x, Y > y) = P (X > x)P (Y > y). 285. Demuestre que X y Y son independientes si y solo si para cualesquiera n´ umeros reales a < b y c < d, P (a < X ≤ b, c < Y ≤ d) = P (a < X ≤ b) P (c < Y ≤ d). 286. Sean X1 , . . . , Xn variables aleatorias independientes cada una con distribuci´ on Ber(p). Calcule P (X1 + · · · + Xn = k) para k = 0, 1, . . . , n. 287. Sean X y Y independientes ambas con distribuci´ on unif{1, . . . , n}. Encuentre la distribuci´ on de (U, V ) = (X + Y, X − Y ). Determine si U y V son independientes. 288. Sean X ≥ 0 y Y ≥ 0 independientes con valores enteros y con esperanza finita. Demuestre que E(m´ın{X, Y }) =

∞ X

n=1

P (X ≥ n)P (Y ≥ n).

289. Sean X y Y independientes ambas con distribuci´ on unif{−1, 1}. Sea Z = XY . Demuestre que X, Y y Z son independientes dos a dos pero no lo son en su conjunto.

93

290. Sean X y Y independientes con distribuci´ on Poisson(λ1 ) y Poisson(λ2 ) respectivamente. Demuestre que la distribuci´ on condicional de X dado que X + Y = n es bin(n, λ1 /(λ1 + λ2 )). 291. Sean X y Y independientes con distribuci´ on unif{0, 1, . . . , n} y unif{0, 1, . . . , m} respectivamente. Encuentre la funci´ on de densidad de Z = X + Y . 292. Sean X1 , . . . , Xn independientes con distribuci´ on geo(p). Demuestre que X1 + · · · + Xn tiene distribuci´ on bin neg(n, p). 293. Sean X y Y independientes. Encuentre la funci´ on de distribuci´ on de W en t´erminos de FX (x) y FY (y) cuando a) W = m´ ax{X, Y }. b) W = m´ın{X, Y }.

294. Sean X y Y independientes ambas con distribuci´ on exp(λ) y sea a una constante. Calcule a) P (m´ ax{X, Y } ≤ aX). b) P (m´ın{X, Y } ≤ aX).

295. Usando la siguiente tabla, construya de un vector discreto (X, Y ) con la independientes. x\y 0 0 · 1 ·

la funci´ on de densidad f (x, y) condici´ on de que X y Y sean 1 · ·

Compruebe que la funci´ on que propone es efectivamente una funci´ on de densidad y que la condici´ on de independencia se cumple. 296. Sea (X, Y ) un vector discreto con distribuci´ on de probabilidad uniforme en el conjunto {1, . . . , n} × {1, . . . , m}, con n y m enteros positivos. Demuestre que X y Y son independientes. 297. Sea (X, Y ) un vector aleatorio con funci´ on de densidad  x+y 1 f (x, y) = c para x = 0, 1, 2 y y = 1, 2. 2 Encuentre el valor de la constante c y determine si X y Y son independientes. Calcule adem´ as las probabilidades P (X = 1), P (X = 2 | Y = 2) y P (XY = 2). 298. Sean X y Y independientes con distribuci´ on exponencial con par´ ametros λ1 y λ2 respectivamente. Demuestre que P (Y > X) =

94

λ1 . λ1 + λ 2

299. Sean X y Y independientes con distribuci´ on bin(n, p) y bin(m, p) respectivamente. Demuestre que X + Y tiene distribuci´ on bin(n + m, p) a) haciendo el c´ alculo directamente. b) razonando probabil´ısticamente en t´erminos de ensayos Bernoulli. 300. Sean X y Y independientes con distribuci´ on Poisson con par´ ametros λ1 y λ2 respectivamente. Demuestre que X + Y tiene distribuci´ on Poisson(λ1 + λ2 ). 301. Sea (X, Y, Z) un vector aleatorio con funci´ on de densidad fX,Y,Z (x, y, z) = 8xyz para 0 ≤ x, y, z ≤ 1. a) Compruebe que f (x, y, z) es una funci´ on de densidad. b) Calcule P (X < Y < Z) y P (X + Y + Z < 1). c) Encuentre fX,Y (x, y), fX,Z (x, z) y fY,Z (y, z). d ) Determine si X, Y y Z son independientes. 302. Sea (X, Y, Z) un vector aleatorio con funci´ on de densidad fX,Y,Z (x, y, z) = 24x para 0 < x < y < z < 1. a) Compruebe que f (x, y, z) es una funci´ on de densidad. b) Calcule P (X + Y < 1) y P (Z − X > 1/2).

c) Encuentre fX,Y (x, y), fX,Z (x, z) y fY,Z (y, z).

d ) Determine si X, Y y Z son independientes. 303. Sea X1 , X2 , . . . una sucesi´ on de v.a.s independientes cada una con distribuci´ on unif[0, 1]. Demuestre que para cualquier λ > 0, l´ım P (m´ ax{X1 , . . . , Xn } ≤ 1 −

n→∞

λ ) = e−λ . n

304. Sean X y Y independientes con distribuci´ on Poisson(λ1 ) y Poisson(λ2 ) respectivamente. Demuestre que E(X | X + Y = n) = n ·

3.7.

λ1 . λ1 + λ 2

Esperanza condicional

En esta secci´ on se define el importante concepto de esperanza condicional de una variable aleatoria respecto de una σ-´ algebra y se estudian algunas de sus propiedades elementales.

95

Definici´ on 31 Sea X una variable aleatoria con esperanza finita y sea G una sub-σ-´ algebra de F. La esperanza condicional de X dado G es una variable aleatoria denotada por E(X|G) que cumple las siguientes tres propiedades: 1. Es G-medible. 2. Tiene esperanza finita. 3. Para cualquier evento G en G, E[ E( X | G ) · 1G ] = E[ X · 1G ].

(3.1)

El punto importante a enfatizar es que la esperanza condicional, a pesar de su nombre, no es un n´ umero (aunque puede serlo) sino una variable aleatoria. Puede demostrarse que esta variable aleatoria existe y es u ´nica casi seguramente, esto significa que si existe otra variable aleatoria con las tres propiedades de la definici´ on anterior entonces con probabilidad uno coincide con E(X|G). La esperanza condicional cumple las siguientes propiedades elementales. a) E(E(X|G)) = E(X). b) Si X es G-medible entonces E(X|G) = X. En particular, si c es una constante E(c|G) = c. c) E(aX + Y |G) = aE(X|G) + E(Y |G). La primera propiedad se demuestra tomando el caso particular G = Ω en la igualdad (3.1), y establece que las variables aleatorias X y E(X|G) tienen la misma esperanza. Para la segunda propiedad observe que si X es Gmedible entonces X mismo cumple con las tres propiedades de la definici´ on de E(X|G), por la unicidad se obtiene la igualdad casi segura. La tercera propiedad es consecuencia de la linealidad de la esperanza, de (3.1) y de la unicidad. Cuando la σ-´ algebra G es la m´ınima respecto de la cual una funci´ on Y : Ω → R es variable aleatoria, es decir G = σ(Y ), entonces la esperanza condicional se escribe simplemente E(X|Y ) en lugar de E(X|σ(Y )). Si ω es tal que Y (ω) = y entonces la variable aleatoria E(X|Y ) evaluada en ω es E(X|Y )(ω) = E(X|Y = y) Z ∞ = xdFX|Y (x|y). −∞

No es dif´ıcil verificar los siguientes casos particulares que relacionan a la esperanza condicional con los conceptos elementales de esperanza y proba96

bilidad condicional. Para cualquier variable aleatoria X con esperanza finita, y eventos A y B, a) E(X| {∅, Ω} ) = E(X). b) E(1A | {∅, Ω} ) = P (A). c) E(1A | {∅, B, B c , Ω} ) = P (A|B)1B + P (A|B c )1B c . La primera igualdad se sigue del hecho que E(X|G) es medible respecto de G y de que cualquier funci´ on medible respecto de G = {∅, Ω} es constante. La tercera condici´ on en la definici´ on de esperanza condicional implica que esta constante debe ser E(X). La segunda igualdad es evidentemente un caso particular de la primera. Para demostrar la tercera igualdad observe que toda funci´ on medible respecto de G = {∅, B, B c , Ω} es constante tanto en B como en B c . Adem´ as, E[ E( 1A | G ) · 1B ] = E[ 1A · 1B ] = P (A ∩ B). Como la variable aleatoria E( 1A | G) es constante en B, el lado izquierdo es igual a E( 1A | G)(ω) · P (B) para cualquier ω en B. De donde se obtiene E( 1A | G)(ω) = P (A|B) para ω en B. El an´ alisis es an´ alogo al considerar el c evento B y de esto se obtiene la f´ ormula de la tercera propiedad. Una introducci´ on a la esperanza condicional ligeramente mas completa a la presentada en esta secci´ on, aunque tambi´en sencilla y breve, puede encontrarse en [17]. Un tratamiento m´ as completo puede consultarse por ejemplo en [11] o [21].

EJERCICIOS 305. Enuncie la definici´ on de esperanza condicional de una variable respecto de una σ-´ algebra. 306. Sea X una variable aleatoria con esperanza finita y sea G = {∅, Ω}. Demuestre que E(X|G) = E(X). 307. Demuestre que si X es G-medible entonces E(X|G) = X. 308. Demuestre que si c es una constante entonces para cualquier sub-σalgebra G, E(c|G) = c. ´ 309. Sea A un evento y sea G = {∅, Ω}. Demuestre que E(1A |G) = P (A). 310. Sean A y B dos eventos. Demuestre que E(1A |1B ) = P (A|B)1B + P (A|B c )1B c .

97

311. Sea (X, Y ) un vector con funci´ on de densidad fX,Y (x, y) = 3y para 0 < x < y < 1. Compruebe que f (x, y) es efectivamente una funci´ on de densidad y calcule a) P (X + Y < 1/2). b) fX (x) y fY (y). c) E(Y ) y E(Y |X = x). 312. Sea (X, Y ) un vector con distribuci´ on uniforme en el conjunto {1, . . . , 6} × {1, . . . , 6}. Calcule a) P (X = Y ). b) P (X + Y ≤ 6). c) fX (x) y fY (y).

d ) E(X|X + Y = 6). 313. Sea (X, Y ) un vector con funci´ on de densidad dada por la siguiente tabla x\y -1 0 1 1 .3 .05 .05 2 .05 .2 .05 3 .1 .1 .1 Calcule a) P (X = 2), P (X + Y = 1) y P (Y ≤ X). b) fX (x) y fY (y).

c) fY |X (y|x) para x = 1, 2, 3.

d ) E(Y |X = x) para x = 1, 2, 3.

3.8.

Varianza condicional

Definici´ on 32 Sea X con segundo momento finito. La varianza condicional de X dado Y se define como la variable aleatoria dada por Var(X|Y ) = E[ (X − E(X|Y ))2 | Y ].

La varianza condicional cumple las siguientes propiedades. 98

a) Var(X|Y ) = E(X 2 |Y ) − E 2 (X|Y ). b) Var(X) = E[Var(X|Y )] + Var[E(X|Y )]. La demostraci´ on de estas f´ ormulas es sencilla. La primera de ellas surge a partir de la definici´ on al desarrollar el cuadrado y utilizar las propiedades de linealidad de la esperanza condicional. Para la segunda propiedad, tomando esperanza en a) se obtiene E[Var(X|Y )] = E(X 2 ) − E[E 2 (X|Y )].

(3.2)

Por otro lado Var[E(X|Y )] = E[E 2 (X|Y )] − E 2 [E(X|Y )] = E[E 2 (X|Y )] − E 2 (X).

(3.3)

Sumando (3.2) y (3.3) se obtiene b).

EJERCICIOS 314. Demuestre nuevamente que Var(X|Y ) = E(X 2 |Y ) − E 2 (X|Y ). 315. Demuestre nuevamente que Var(X) = E[Var(X|Y )] + Var[E(X|Y )].

3.9.

Esperanza de una funci´ on de un vector aleatorio

Definici´ on 33 Sea (X, Y ) un vector aleatorio y sea g : R2 → R una funci´ on Borel medible. Entonces se define Z E[g(X, Y )] = g(x, y)dFX,Y (x, y). R2

Proposici´ on 38 Sean X y Y independientes y sean g y h dos funciones Borel medibles tales que g(X) y h(Y ) tienen esperanza finita. Entonces E[g(X)h(Y )] = E[g(X)]E[h(Y )].

99

Demostraci´ on. E[g(X)h(Y )] = =

Z

ZR

2

R2

g(x)h(y)dFX,Y (x, y) g(x)h(y)dFX (x)dFY (y)

= E[g(X)]E[h(Y )].  En particular cuando X y Y son independientes, E(XY ) = E(X)E(Y ). El rec´ıproco de esta afirmaci´ on es falso. Para ello v´ease el ejercicio 317.

EJERCICIOS 316. Demuestre que si X y Y son independientes entonces E(XY ) = E(X)E(Y ). 317. Demuestre que E(XY ) = E(X)E(Y ) =⇒ 6 X, Y independientes considerando cualquiera de los siguientes ejemplos.   1/8 si (x, y) = (−1, 1), (1, 1), (−1, 1), (1, −1), 1/2 si (x, y) = (0, 0), a) f (x, y) =  0 otro caso. 3 b) f (x, y) = (x2 + y 2 ) para x, y ∈ [−1, 1]. 8 c) X con distribuci´ on uniforme en {−1, 0, 1} y Y = 1(X6=0) . 318. Sean X y Y independentes. Diga falso o verdadero justificando en cada caso. a) Var(X + Y ) = Var(X) + Var(Y ). b) Var(X − Y ) = Var(X) − Var(Y ). c) Var(XY ) = Var(X)Var(Y ).

319. Sean X y Y independientes. Demuestre que Var(XY ) = Var(X)Var(Y ) + E 2 (X)Var(Y ) + E 2 (Y )Var(X). 320. Sean X1 , . . . Xn independientes con la misma distribuci´ on, y sea Sn = X1 + · · · + Xn . Suponiendo que las esperanzas indicadas existen, demuestre que E(X1 /Sn ) = 1/n. Concluya que para m ≤ n, E(Sm /Sn ) = m/n.

100

321. Sea X1 , . . . , Xn variables aleatorias independientes con id´entica distribuci´ on y con esperanza finita. Demuestre que E(X1 | X1 + · · · + Xn = k) =

k . n

322. Sea (X, Y ) un vector aleatorio discreto con funci´ on de densidad dada por la siguiente tabla x\y 1 2 3

-1 .1 .06 .1

0 .05 .2 .05

1 .1 .04 .3

a) Grafique f (x, y) y compruebe que efectivamente se trata de una funci´ on de densidad conjunta. b) Calcule y grafique las densidades marginales fX (x) y fY (y). Verifique que ambas son funciones de densidad. c) Demuestre que X y Y no son independientes. d ) Calcule E(XY ). e) Calcule fX+Y (u). 323. Sea (X, Y ) un vector discreto con siguiente tabla x\y 2 1 2/18 2 3/18 3 1/18

funci´ on de densidad dada por la 4 3/18 5/18 1/18

6 1/18 1/18 1/18

a) Grafique f (x, y) y compruebe que efectivamente es una funci´ on de densidad conjunta. b) Calcule y grafique las densidades marginales fX (x) y fY (y). Verifique que ambas son efectivamente funciones de densidad. c) Demuestre que X y Y no son independientes. d ) Calcule E(XY ). e) Calcule fX+Y (u). 324. Sea (X, Y ) un vector aleatorio con funci´ on de densidad dada por  8xy si 0 < y < x < 1, f (x, y) = 0 otro caso. a) Grafique f (x, y). b) Encuentre y grafique las densidades marginales fX (x) y fY (y). Verifique que ambas son efectivamente funciones de densidad. c) Demuestre que X y Y no son independientes. d ) Calcule E(XY ). 101

3.10.

Covarianza

En esta secci´ on se define y estudia la covarianza entre dos variables aleatorias. Una interpretaci´ on de este n´ umero, ligeramente modificado, ser´ a dada en la siguiente secci´ on.

Definici´ on 34 La covarianza de X y Y , denotada por Cov(X, Y ), es el n´ umero Cov(X, Y ) = E [(X − E(X))(Y − E(Y ))] .

Para que la definici´ on anterior tenga sentido se necesita suponer que las esperanzas E(X), E(Y ) y E(XY ) sean finitas. Estudiamos a continuaci´ on algunas propiedades sencillas de la covarianza.

Proposici´ on 39 La covarianza satisface las siguientes propiedades. 1. Cov(X, Y ) = E(XY ) − E(X)E(Y ). 2. Cov(X, Y ) = Cov(Y, X). 3. Cov(X, X) = Var(X). 4. Cov(a, Y ) = 0, a constante. 5. Cov(aX, Y ) = aCov(X, Y ), a constante. 6. Cov(X1 + X2 , Y ) = Cov(X1 , Y ) + Cov(X2 , Y ). 7. X,Y independientes =⇒ Cov(X, Y ) = 0. 8. Cov(X, Y ) = 0 =⇒ 6 X,Y independientes.

Demostraci´ on. Para probar (1) se usa la propiedad lineal de la esperanza, Cov(X, Y ) = E [(X − E(X))(Y − E(Y ))]

= E [XY − Y E(X) − XE(Y ) + E(X)E(Y )]

= E(XY ) − E(X)E(Y ).

Las propiedades (2), (3) y (4) se siguen directamente de la definici´ on, lo mismo que (5) y (6) al hacer uso de las propiedades de linealidad de la esperanza. La proposici´ on (7) se obtiene f´ acilmente de (1) pues E(XY ) = E(X)E(Y ) cuando X y Y son independientes. Finalmente damos un ejemplo

102

para (8). Sea (X, Y ) un vector aleatorio discreto con funci´ on de densidad   1/8 si (x, y) ∈ {(−1, −1), (−1, 1), (1, −1), (1, 1)}, 1/2 si (x, y) = (0, 0), fX,Y (x, y) =  0 otro caso. Entonces X y Y tienen id´enticas densidades marginales,    1/4 si y ∈ {−1, 1},  1/4 si x ∈ {−1, 1}, 1/2 si y = 0, 1/2 si x = 0, fY (y) = fX (x) =   0 otro caso. 0 otro caso. Puede entonces comprobarse que

Cov(X, Y ) = E(XY ) − E(X)E(Y ) = 0. Sin embargo X y Y no son independientes pues en particular 1 P (X = 0, Y = 0) = , 2 mientras que

1 P (X = 0)P (Y = 0) = . 4 

EJERCICIOS 325. Defina Cov(X, Y ) y mencione tres de sus propiedades. 326. Diga falso o verdadero. Demuestre en cada caso. a) Cov(X, Y ) = 0, Cov(Y, Z) = 0 =⇒ Cov(X, Z) = 0. b) Cov(X, Y ) > 0, Cov(Y, Z) > 0 =⇒ Cov(X, Z) > 0. c) Cov(X, Y ) = a, Cov(Y, Z) = a =⇒ Cov(X, Z) = a. 327. Diga falso o verdadero. Demuestre en cada caso. a) Cov(X, Y ) ≥ 0.

b) Cov(aX, bY ) = ab Cov(X, Y ) con a, b constantes. c) Cov(X, aY + b) = a Cov(X, Y ) + b con a, b constantes.

328. Sea a un n´ umero real cualquiera. Encuentre X y Y tales que a) Cov(X, Y ) = a. b) Cov(X, Y ) = −a. c) Cov(X, Y ) = 0.

329. Demuestre que a) Cov(X, Y ) = E(XY ) − E(X)E(Y ). 103

b) c) d) e) f)

Cov(X, Y ) = Cov(Y, X). Cov(X, X) = Var(X). Cov(X, −X) = −Var(X). Cov(aX + b, Y ) = aCov(X, Y ). Cov(X1 + X2 , Y ) = Cov(X1 , Y ) + Cov(X2 , Y ).

330. Demuestre que a) X, Y independientes =⇒ Cov(X, Y ) = 0. b) Cov(X, Y ) = 0 =⇒ 6 X, Y independientes. 331. Demuestre que Var(X ± Y ) = Var(X) + Var(Y ) ± 2 Cov(X, Y ). 332. Demuestre que a) Var(X1 + · · · + Xn ) = m n X X Yj ) = Xi , b) Cov( i=1

j=1

n X

Var(Xk ) + 2

k=1 m n X X

X

Cov(Xj , Xk ).

j 0.

3.11.

Coeficiente de correlaci´ on

El coeficiente de correlaci´ on de dos variables aleatorias es un n´ umero que mide el grado de “dependencia lineal” que existe entre ellas.

Definici´ on 35 El coeficiente de correlaci´ on de X y Y , denotado por ρ(X, Y ), es el n´ umero Cov(X, Y ) ρ(X, Y ) = p , Var(X) Var(Y )

en donde 0 < Var(X), Var(Y ) < ∞.

La interpretaci´ on dada al coeficiente de correlaci´ on se justifica a partir de los siguientes resultados.

105

Proposici´ on 40 La coeficiente de correlaci´ on satisface las siguientes propiedades. 1. X,Y independientes =⇒ ρ(X, Y ) = 0. 2. ρ(X, Y ) = 0 =⇒ 6 X,Y independientes (excepto en el caso normal). 3. −1 ≤ ρ(X, Y ) ≤ 1. 4. |ρ(X, Y )| = 1 si y solo si existen constantes a y b tales que, con probabilidad uno, Y = aX + b con a > 0 si ρ(X, Y ) = 1 y a < 0 si ρ(X, Y ) = −1.

Demostraci´ on. (1) Si X y Y son independientes entonces Cov(X, Y ) = 0 y por lo tanto ρ(X, Y ) = 0. (2) Recuerde que la condici´ on Cov(X, Y ) = 0 no implica necesariamente que X y Y sean independientes. (3) Suponga primero que X y Y son tales que E(X) = E(Y ) = 0, y Var(X) = Var(Y ) = 1. Para cualquier valor de λ, 0 ≤ Var(X + λY )   = E (X + λY )2 − E 2 [X + λY ] = 1 + 2λE(XY ) + λ2 .

El caso λ = 1 produce el resultado E(XY ) ≥ −1 mientras que para λ = −1 se obtiene E(XY ) ≤ 1. Es decir, −1 ≤ E(XY ) ≤ 1. Ahora se aplica este resultado a las variables aleatorias X − µX σX

y

Y − µY , σY

que evidentemente son centradas y con varianza unitaria. Entonces    X − µX Y − µY −1 ≤ E ≤ 1. σX σY Esto es precisamente lo enunciado en (3) pues el t´ermino de enmedio es ρ(X, Y ). Ahora se demuestra (4). Si X y Y son tales que Y = aX + b con a 6= 0 y b constantes entonces a Cov(X, aX + b) = ρ(X, Y ) = p |a| Var(x)Var(aX + b)

Por lo tanto ρ(X, Y ) = 1 cuando a > 0 y ρ(X, Y ) = −1 cuando a < 0. Inversamente, suponga que X y Y son tales que |ρ(X, Y )| = 1. Defina U=

X − µX σX

y 106

V =

Y − µY . σY

Entonces claramente E(U ) = E(V ) = 0 y Var(U ) = Var(V ) = 1. Por lo tanto ρ(U, V ) = E(U V ). Es f´ acil ver tambi´en que |ρ(U, V )| = |ρ(X, Y )| = 1. Si ρ(U, V ) = 1 entonces Var(U − V ) = E[(U − V )2 ] − E 2 (U − V ) = E[(U − V )2 ]

= 2[1 − E(U V )]

= 0.

Esto significa que con probabilidad uno, la v.a. U − V es constante. Esto es, para alguna constante c, con probabilidad uno, U − V = c. Pero esta constante c debe ser cero pues E(U − V ) = 0. Por lo tanto, X − µX Y − µY = , σX σY Y (X − µX ). Esto establece una relaci´ on de donde se obtiene Y = µY + σσX lineal directa entre X y Y . En cambio, si ρ(U, V ) = −1 entonces

Var(U + V ) = E[(U + V )2 ] − E 2 (U + V ) = E[(U + V )2 ]

= 2[1 + E(U V )] = 0. Esto significa nuevamente que con probabilidad uno, la v.a. U + V es constante. Esto es, para alguna constante c, con probabilidad uno, U + V = c. Nuevamente la constante c es cero pues E(U + V ) = 0. Por lo tanto, Y − µY X − µX =− , σY σY σY (X − µX ). Esto establece una relaci´ on σX lineal, ahora inversa, entre X y Y . Uniendo los u ´ltimos dos resultados se obtiene que cuando |ρ(X, Y )| = 1, con probabilidad uno,     σY σY Y = ρ(X, Y ) X + µY − ρ(X, Y )µX . σX σX | | {z } {z } de donde se obtiene Y = µY −

a

b



Cuando ρ(X, Y ) = 0 se dice que X y Y son “no correlacionadas” y cuando |ρ(X, Y )| = 1 se dice que X y Y est´ an “perfectamente correlacionadas” positiva o negativamente de acuerdo al signo de ρ(X, Y ). Proposici´ on 41 Si (X, Y ) es un vector con distribuci´ on normal bivariada y ρ(X, Y ) = 0 entonces X y Y son independientes.

107

Demostraci´ on. La funci´ on de densidad normal bivariada esta dada por la siguiente expresi´ on f (x, y) =

1 p 2πσX σY 1 − ρ2 "       # x − µX y − µY y − µY 2 1 x − µX 2 } − 2ρ + exp{− 2(1 − ρ2 ) σX σX σY σY

2 = Var(X), µ 2 en donde µX = E(X), σX Y = E(Y ), σY = Var(Y ), y ρ ∈ (−1, 1). Se pueden calcular directamente las funciones de densidad marginales y comprobar que

f (x) = y

f (y) =

1 2 q exp{−(x − µX )2 /2σX } 2 2πσX

1 q exp{−(y − µY )2 /2σY2 }, 2 2πσY

2 ) y Y tiene distribuci´ es decir, X tiene distribuci´ on N (µX , σX on N (µY , σY2 ). Despu´es de hacer algunos c´ alculos sencillos se puede demostrar que ρ(X, Y ) = ρ y comprobar finalmente que cuando ρ = 0 se verifica la igualdad fX,Y (x, y) = fX (x)fY (y). 

En resumen tenemos la siguiente tabla. Propiedades del coeficiente de correlaci´ on 1. 2. 3. 4.

X,Y indep =⇒ ρ(X, Y ) = 0 ρ(X, Y ) = 0 =⇒ 6 X,Y indep (excepto caso normal) ρ(X, Y ) ∈ [−1, 1] |ρ(X, Y )| = 1 ⇐⇒ Y = aX + b

EJERCICIOS 341. Escriba la definici´ on y una interpretaci´ on del coeficiente de correlaci´ on. Mencione adem´ as tres de sus propiedades. 342. Diga falso o verdadero. Demuestre en cada caso. a) ρ(X, Y ) = 0, ρ(Y, Z) = 0 =⇒ ρ(X, Z) = 0. b) ρ(X, Y ) > 0, ρ(Y, Z) > 0 =⇒ ρ(X, Z) > 0. c) ρ(X, Y ) > 0, ρ(Y, Z) > 0 =⇒ ρ(X, Z) > 0. d ) ρ(X, Y ) = 1, ρ(Y, Z) = 1 =⇒ ρ(X, Z) = 1. e) ρ(X, Y ) = −1, ρ(Y, Z) = −1 =⇒ ρ(X, Z) = −1. f ) ρ(X, Y )ρ(Y, Z) = −1 =⇒ ρ(X, Z) = −1.

g) ρ(X, Y ) = a, ρ(Y, Z) = a =⇒ ρ(X, Z) = a. 108

343. Diga falso verdadero. Demuestre en cada caso. a) ρ(X, Y ) = ρ(Y, X). b) ρ(aX, Y ) = a ρ(X, Y ), a constante. c) ρ(X + a, Y ) = ρ(X, Y ), a constante. d ) ρ(aX + b, Y ) = a ρ(X, Y ) + b; a, b constantes. e) ρ(X1 + X2 , Y ) = ρ(X1 , Y ) + ρ(X2 , Y ). 344. Sea a un n´ umero en [−1, 1]. Encuentre X y Y tales que ρ(X, Y ) = a. 345. Demuestre que a) X, Y independientes =⇒ ρ(X, Y ) = 0. b) ρ(X, Y ) = 0 =⇒ 6 X, Y independientes. 346. Demuestre que a) −1 ≤ ρ(X, Y ) ≤ 1 b) ρ(X, X) = 1.

c) ρ(X, −X) = −1.

d ) ρ(X, aX + b) = 1 si a > 0. e) ρ(X, aX + b) = −1 si a < 0. f ) ρ(X, aX + b) = 0 si a = 0.

347. Calcule el coeficiente de correlaci´ on de X y Y cuya funci´ on de densidad conjunta est´ a dada por la siguiente tabla. x\y 0 1

1 1/8 1/2

2 1/4 1/8

348. Calcule el coeficiente de correlaci´ on de X y Y cuya funci´ on de densidad conjunta est´ a dada por la siguiente tabla. x\y 2 4 6

1 1/9 1/9 1/9

2 1/9 1/9 1/9

3 1/9 1/9 1/9

349. Calcule el coeficiente de correlaci´ on de X y Y con distribuci´ on conjunta uniforme en el conjunto a) {1, . . . , n} × {1, . . . , n}. b) [−1, 1] × [−1, 1].

350. Sea X con distribuci´ on bin(n, p) y sea Y = n − X. Demuestre que Cov(X, Y ) = −np(1 − p) y por lo tanto ρ(X, Y ) = −1. 109

351. Calcule el coeficiente de correlaci´ on de X y Y cuya funci´ on de densidad conjunta es a) f (x, y) = b) f (x, y) = c) f (x, y) =

1 2 sin(x + y) para x, y 1 −x para |y| < x. 2e −x−y e para x, y > 0.

∈ [0, π/2].

352. Sean X y Y independientes e id´enticamente distribuidas. Demuestre que ρ(X + Y, X − Y ) = 0.

3.12.

Esperanza y varianza de un vector aleatorio

Sea X el vector aleatorio (X1 , . . . , Xn ). Se define la esperanza de X como el vector (E(X1 ), . . . , E(Xn )), cuando cada coordenada existe. La varianza  de X se define como la matriz cuadrada E (X − E(X))t (X − E(X)) , en donde t significa transpuesta del vector. Observe que (X − E(X))t es un vector columna de dimensi´ on n × 1, mientras que (X − E(X)) es un vector rengl´ on de dimensi´ on 1 × n. De modo que el producto de estos dos vectores en el orden indicado resulta en una matriz cuadrada de dimensi´ on n × n cuyo elemento general es E[(Xi − E(Xi ))(Xj − E(Xj ))] = Cov(Xi , Xj ). Entonces 

  Var(X) =  

Var(X1 ) Cov(X1 , X2 ) Cov(X1 , X2 ) Var(X2 ) .. .. . . Cov(X1 , Xn ) Cov(X2 , Xn )

· · · Cov(X1 , Xn ) · · · Cov(X2 , Xn ) .. .. . . ··· Var(Xn )

    

.

n×n

La matriz Var(X) se llama “matriz de varianzas y covarianzas” del vector X. Es una matriz sim´etrica pues Cov(Xi , Xj ) = Cov(Xj , Xi ). Adem´ as es positiva definida, esto significa que para cualquier vector θ = (θ1 , . . . , θn ) de Rn se cumple la desigualdad hVar(X)θ, θi =

n X

i,j=1

Cov(Xi , Xj )θj θi ≥ 0,

en donde h·, ·i denota el producto interior usual de Rn . EJERCICIOS 353. Calcule la esperanza y varianza del vector aleatorio (X, Y ) cuya funci´ on de densidad conjunta es 1 para 0 < x < a, 0 < y < b. ab b) f (x, y) = 4xy para x, y ∈ [0, 1].

a) f (x, y) =

110

3.13.

Distribuciones multivariadas discretas

Estudiamos a continuaci´ on algunas distribuciones discretas de vectores aleatorios. Distribuci´ on multinomial. Suponga que se tiene un experimento aleatorio con k posibles resultados distintos. Las probabilidades para cada uno de estos resultados son respectivamente p1 , . . . , pk . Entonces p1 + · · · + pk = 1. Ahora suponga que se tienen n ensayos sucesivos independientes del experimento anterior y defina las variables aleatorias discretas X1 , . . . , Xk como aquellas que registran el n´ umero de veces que se obtienen cada uno de los k posibles resultados en los n ensayos. Entonces se dice que X1 , . . . , Xk tienen una distribuci´ on multinomial y su funci´ on de densidad conjunta es   n f (x1 , . . . , xn ) = px1 1 · · · pxnn x1 , . . . , xn para x1 , . . . , xn = 0, 1, . . . , n tales que x1 + · · · + xk = n. Los par´ ametros de esta distribuci´ on son entonces el n´ umero de ensayos n, el n´ umero de resultados distintos k en cada ensayo y las probabilidades p1 , . . . , pk . El factor que aparece en par´entesis en la funci´ on de densidad conjunta se conoce como “coeficiente multinomial” y se define como sigue   n! n . = x1 , . . . , xn x1 ! · · · xn ! Se dice entonces que (X1 , . . . , Xk ) tiene distribuci´ on multinomial(n, k, p1 , . . . , pk ). Observe que cuando u ´nicamente hay dos posibles resultados en cada ensayo (es decir k = 2) la distribuci´ on multinomial se reduce a la distribuci´ on binomial.

EJERCICIOS 354. Demuestre que la funci´ on de densidad de la distribuci´ on multinomial efectivamente lo es. 355. Sea X = (X1 , . . . , Xk ) con distribuci´ on multinomial(n, k, p1 , . . . , pk ). Demuestre que Xi tiene distribuci´ on marginal bin(n, pi ), para i = 1, . . . , k. 356. Sea X = (X1 , . . . , Xk ) con distribuci´ on multinomial(n, k, p1 , . . . , pk ). Demuestre que E(X) = (np1 , . . . , npk ) y que  npi (1 − pi ) si i = j, [Var(X)]ij = −npi pj si i 6= j. Distribuci´ on hipergeom´ etrica multivariada. Suponga que se tienen N objetos de los cuales N1 son de un primer tipo, N2 son de un segundo 111

tipo y asi sucesivamente con Nk objetos de tipo k. Entonces N1 + · · · + Nk = N . Suponga que de la totalidad de objetos se obtiene una muestra sin reemplazo de tama˜ no n, y defina la variables X1 , . . . , Xk como aquellas que representan el n´ umero de objetos seleccionados de cada tipo. Se dice entonces que X1 , . . . , Xk tienen una distribuci´ on hipergeom´etrica multivariada y su funci´ on de densidad conjunta es     Nk N1 ··· xk x1   f (x1 , . . . , xk ) = N n en donde cada xi toma valores en el conjunto {0, 1, . . . , n} pero sujeto a xi ≤ Ni y adem´ as debe cumplirse que x1 + · · ·+ xk = n. Se dice entonces que (X1 , . . . , Xk ) tiene distribuci´ on hipergeom´etrica multivariada (N, N1 , . . . , Nk , n). Observe que cuando u ´nicamente hay dos tipos de objetos (es decir k = 2) la distribuci´ on hipergeom´etrica multivariada se reduce a la distribuci´ on hipergeom´etrica univariada. V´ease la secci´ on de ejercicios para la esperanza y varianza de la distribuci´ on hipergeom´etrica multivariada.

EJERCICIOS 357. Demuestre que la funci´ on de densidad de la distribuci´ on hipergeom´etrica multivariada efectivamente lo es. 358. Sea X = (X1 , . . . , Xk ) con distribuci´ on hipergeom´etrica multivariada con par´ ametros (N, N1 , . . . , Nk , n). Demuestre que Xi tiene distribuci´ on hipergeom´etrica univariada con par´ ametros (N, Ni , n), para i = 1, . . . , k. 359. Sea X = (X1 , . . . , Xk ) con distribuci´ on hipergeom´etrica multivariada Nk N1 con par´ ametros (N, N1 , . . . , Nk , n). Demuestre que E(X) = (n , . . . , n ) N N y que  N N − Ni N − n   n· i · · si i = j, N N N −1 [Var(X)]ij = N N n−N   n· i · j · si i 6= j. N N N −1

3.14.

Distribuciones multivariadas continuas

Ahora estudiamos algunas distribuciones continuas de vectores aleatorios. Distribuci´ on normal multivariada. Se dice que las variables aleatorias continuas X y Y tienen una distribuci´ on normal bivariada si su funci´ on de densidad conjunta es f (x, y) =

1 p 2πσX σY 1 − ρ2

112

1 exp{− 2(1 − ρ2 )

"

x − µX σX

2

− 2ρ



x − µX σX



y − µY σY



+



y − µY σY

para cualesquiera valores reales de x y y, y en donde −1 < ρ < 1, σX > 0, σY > 0, y µX , µY dos constantes reales sin restricci´ on. Se escribe X ∼ 2 , µ , σ 2 , ρ). Puede demostrarse que X tiene una distribuci´ N(µX , σX on marginal Y Y 2 ) y Y tiene distribuci´ N(µX , σX on marginal N(µY , σY2 ). Adem´ as el par´ ametro ρ resulta ser el coeficiente de correlaci´ on entre X y Y . V´ease el ejercicio 362 en la p´ agina 113 acerca de un ejemplo en el cual las densidades marginales de un vector bivariado son normales pero la distribuci´ on conjunta no lo es. Cuando µX = µY = 0 y σX = σY = 1 la distribuci´ on se llama “normal bivariada est´ andar”.

EJERCICIOS 360. Demuestre que la funci´ on de densidad de la distribuci´ on normal bivariada efectivamente lo es. 2 , µ , σ 2 , ρ). 361. Sea (X, Y ) un vector con distribuci´ on normal bivariada N(µX , σX Y Y Demuestre que X tiene distribuci´ on marginal N(µX , σY2 ) y Y tiene distribuci´ on marginal N(µY , σY2 ). V´ease el siguiente ejercicio para verificar que el rec´ıproco de este resultado es falso.

362. Sea f (x, y) la funci´ on de densidad normal bivariada est´ andar con ρ = 0. Defina  2f (x, y) si xy < 0, g(x, y) = 0 si xy ≥ 0. Demuestre que g(x, y) es una funci´ on de densidad bivariada que no tiene distribuci´ on normal pero cuyas densidades marginales son normales. 2 , µ , σ 2 , ρ). 363. Sea (X, Y ) un vector con distribuci´ on normal bivariada (µX , σX Y Y Demuestre que E(X) = (µX , µY ), ρ(X, Y ) = ρ y que   2 σX ρσX σY Var(X, Y ) = . ρσX σY σY2 2 , µ , σ 2 , ρ). 364. Sea (X, Y ) un vector con distribuci´ on normal bivariada (µX , σX Y Y Demuestre que la distribuci´ on condicional de X dado que Y = y es Y normal con media µY + ρ σσX (x − µX ) y varianza σY2 (1 − ρ2 ), y que la distribuci´ on condicional de Y dado que X = x es normal con media σX 2 (1 − ρ2 ) µX + ρ σY (y − µY ) y varianza σX

113

2 #

}

Cap´ıtulo 4

Transformaciones Si X es una variable aleatoria con distribuci´ on conocida y φ es una funci´ on tal que Y = φ(X) es otra variable aleatoria ¿cu´ al es la distribuci´ on de Y ? En este cap´ıtulo se da respuesta a esta pregunta tanto en el caso unidimensional como en el caso de vectores aleatorios. En particular, se encuentran f´ ormulas expl´ıcitas para la funci´ on de densidad de la suma, resta, producto y cociente de dos variables aleatorias absolutamente continuas.

4.1.

Transformaci´ on de una variable aleatoria

Suponga que X es una variable aleatoria y φ es una funci´ on tal que Y = φ(X) es otra variable aleatoria. En esta secci´ on se estudia un resultado que provee de una f´ ormula para la funci´ on de densidad de Y en t´erminos de la funci´ on de densidad de X. Gr´ aficamente Ω

X

// R

φ

//77 R

Y =φ(X)

Teorema 1 (Teorema de cambio de variable) Sea X una variable aleatoria continua con valores dentro del intervalo (a, b) ⊆ R y con funci´ on de densidad fX (x). Sea φ : (a, b) → R una funci´ on continua, estrictamente creciente o decreciente y con inversa φ−1 diferenciable. Entonces la variable aleatoria Y = φ(X) toma valores dentro del intervalo φ(a, b) y tiene funci´ on de densidad fY (y) = fX (φ−1 (y)) |

d −1 φ (y)| para y ∈ φ(a, b). dy

114

Demostraci´ on. Suponga primero el caso φ estrictamente creciente. Entonces FY (y) = P (Y ≤ y)

= P (φ(X) ≤ y)

= P (X ≤ φ−1 (y))

= FX (φ−1 (y)). Derivando fY (y) = fX (φ−1 (y))

d −1 φ (y). dy

Para φ estrictamente decreciente FY (y) = P (Y ≤ y)

= P (φ(X) ≤ y)

= P (X ≥ φ−1 (y))

= 1 − FX (φ−1 (y)). Entonces −1

fY (y) = fX (φ



 d −1 (y)) − φ (y) . dy

En cualquiera caso se obtiene el resultado del teorema.



Ejemplo 14 (Distribuci´ on log normal) Sea X con distribuci´ on N(µ, σ 2 ) y x sea φ la funci´ on estrictamente creciente y = φ(x) = e con inversa difer−1 enciable φ (y) = ln y. Entonces la variable aleatoria Y = eX toma valores en el intervalo φ(−∞, ∞) = (0, ∞) y aplicando la proposici´ on anterior su funci´ on de densidad es   (ln y − µ)2 1 exp − fY (y) = √ para y ∈ (0, ∞). 2σ 2 y 2πσ 2 A la distribuci´ on de Y se le conoce como la distribuci´ on log normal(µ, σ 2 ). Se puede demostrar que σ2 ) 2 Var(Y ) = exp(2µ + 2σ 2 ) − exp(2µ + σ 2 ). E(Y ) = exp(µ +

EJERCICIOS 365. Sea X con distribuci´ on unif(0, 1) y sea λ > 0. Demuestre que la variable aleatoria Y = −(ln X)/λ tiene distribuci´ on exp(λ). 366. Sea X con distribuci´ on exp(λ). Encuentre la funci´ on de densidad y de distribuci´ on de Y = 1 − exp(−λX). 367. Encuentre la distribuci´ on de Y = 1/X cuando X tiene distribuci´ on 115

a) unif(0, 1). b) exp(λ). 368. Encuentre la distribuci´ on de Y = X n para cada n en N cuando X tiene distribuci´ on a) unif(0, 1). b) exp(λ). 369. Sea X con distribuci´ on unif(−1, 1). Encuentre la funci´ on de densidad de Y = X 2 . 370. Sea X absolutamente continua con funci´ on de distribuci´ on F (x). Demuestre que Y = F (X) tiene distribuci´ on unif[0, 1]. 371. Encuentre la funci´ on de densidad de Y de densidad   1/2 1/(2x2 ) fX (x) =  0

= 1/X cuando X tiene funci´ on si 0 < x ≤ 1, si x > 1, otro caso.

372. Sea X con distribuci´ on unif(a, b). Encuentre la distribuci´ on de la variable aleatoria Y = X/(b − X).

4.2.

Transformaci´ on de un vector aleatorio

Suponga ahora que (X, Y ) es un vector con funci´ on de densidad conocida y φ es una funci´ on tal que (U, V ) = φ(X, Y ) es otro vector aleatorio. El problema es encontrar la funci´ on de densidad del nuevo vector (U, V ). Gr´ aficamente Ω

(X,Y )

// R2

φ

//66 R2

(U,V )=φ(X,Y )

Teorema 2 (Teorema de cambio de variable) Sea (X, Y ) un vector continuo con valores en I ⊆ R2 y con funci´ on de densidad fX,Y (x, y). Sea 2 φ(x, y) : I → R una funci´ on continua con inversa φ−1 (u, v) diferenciable. Entonces el vector (U, V ) = φ(X, Y ) toma valores en φ(I) y tiene funci´ on de densidad fU,V (u, v) = fX,Y (φ−1 (u, v)) |J(u, v)| para (u, v) ∈ φ(I) en donde

∂φ−1 1 ∂u J(u, v) = ∂φ−1 2 ∂u 116

∂φ−1 1 ∂v−1 ∂φ2 ∂v

.

(4.1)

Demostraci´ on (intuitiva). Sea (U, V ) = φ(X, Y ) = (φ1 (X, Y ), φ2 (X, Y )) con inversa −1 (X, Y ) = φ−1 (U, V ) = (φ−1 1 (U, V ), φ2 (U, V )).

Sea A el cuadrado de ´ area infinitesinal de esquinas con coordenadas (x, y), (x+ dx, y), (x, y +dy) y (x+dx, y +dy). Bajo la transformaci´ on φ las coordenadas de las esquinas del cuadrado A se transforman en las siguientes coordenadas (x, y) 7→ (φ1 (x, y), φ2 (x, y)).

(x + dx, y) 7→ (φ1 (x + dx, y), φ2 (x + dx, y)) ∂ ∂ . φ1 (x, y)dx, φ2 (x, y) + φ2 (x, y)dx. = (φ1 (x, y) + ∂x ∂x (x, y + dy) 7→ (φ1 (x, y + dy), φ2 (x, y + dy)) ∂ ∂ . φ1 (x, y)dy, φ2 (x, y) + φ2 (x, y)dy. = (φ1 (x, y) + ∂y ∂y (x + dx, y + dy) 7→ (φ1 (x + dx, y + dy), φ2 (x + dx, y + dy)) ∂ ∂ . = (φ1 (x, y) + φ1 (x, y)dx + φ1 (x, y)dy, ∂x ∂y ∂ ∂ φ2 (x, y)dx + φ2 (x, y)dy). φ2 (x, y) + ∂x ∂y Sea B el elemento de ´ area φ(A). Entonces P ((X, Y ) ∈ A) = P ((U, V ) ∈ B). Por lo tanto ´ fX,Y (x, y) dxdy = fU,V (u, v) × “Area de B”. En donde ∂φ1 ∂φ2 ∂φ2 ∂φ1 ´ dxdy “Area de B” = − ∂x ∂y ∂x ∂y ∂φ1 ∂φ1 ∂x ∂y dxdy. = ∂φ ∂φ2 2 ∂x ∂y

Adem´ as |J(x, y)| =

1 . Por lo tanto |J(u, v)|

fX,Y (x, y) dxdy = fU,V (u, v)

dxdy . |J(u, v)|

De esta ecuaci´ on obtenemos −1 fU,V (u, v) = fX,Y (φ−1 1 (u, v), φ2 (u, v))|J(u, v)|.

 117

Como ejemplo de aplicaci´ on de la proposici´ on anterior, en las secciones siguientes utilizaremos la f´ ormula (4.1) para encontrar expresiones para la funci´ on de densidad de la suma, diferencia, producto y cociente de dos variables aleatorias. Las f´ ormulas generales sobre transformaciones encontradas en estas dos primeras secciones se resumen en la siguiente tabla. Transformaci´ on de variables aleatorias 1. Y = φ(X)

=⇒

2. (U, V ) = φ(X, Y )

fY (y) = fX (φ−1 (y)) | =⇒

d −1 φ (y)| dy

fU,V (u, v) = fX,Y (φ−1 (u, v)) |J(u, v)|

∂φ−1 1 ∂u en donde J(u, v) = ∂φ−1 2 ∂u

∂φ−1 1 ∂v−1 ∂φ2 ∂v



EJERCICIOS 373. Sean X y Y independientes ambas con distribuci´ on unif(0, 1). Encuentre la funci´ on de densidad del vector a) (X, X + Y ). b) (X + Y, X − Y ). 374. Sean X y Y independientes ambas con distribuci´ on unif(−1, 1). Encuentre la funci´ on de densidad de a) (X + Y, X − Y ). b) |Y − X|.

c) (X − Y, Y − X).

375. Sea (X, Y ) un vector con distribuci´ on uniforme en el c´ırculo unitario 2 + y 2 ≤ 1}. Encuentre la funci´ {(x, y) : x√ on de densidad del vector (R, Θ) = ( X 2 + Y 2 , arctan(Y /X)).

4.2.1.

Distribuci´ on de la suma (convoluci´ on)

El siguiente resultado proporciona una f´ ormula para la funci´ on de densidad de la suma de dos variables aleatorias absolutamente continuas.

118

Proposici´ on 42 Sea (X, Y ) un vector continuo con funci´ on de densidad conjunta fX,Y (x, y). Entonces X + Y tiene funci´ on de densidad Z ∞ fX+Y (u) = fX,Y (u − v, v) dv. (4.2) −∞

Demostraci´ on. Sea φ : R2 → R2 la transformaci´ on φ(x, y) = (φ1 (x, y), φ2 (x, y)) = (x + y, y) = (u, v) con inversa −1 φ−1 (u, v) = (φ−1 1 (u, v), φ2 (u, v))

= (u − v, v)

= (x, y).

El Jacobiano de la transformaci´ on inversa es ∂φ−1 ∂φ−1 1 1 1 −1 ∂u = 1. ∂v−1 = J(u, v) = −1 0 1 ∂φ2 ∂φ2 ∂u ∂v Por la f´ ormula (4.1) la funci´ on de densidad de (X + Y, Y ) es fX+Y,Y (u, v) = fX,Y (u − v, v). Integrando respecto de v se obtiene (4.2).



Observe que haciendo el cambio de variable z(v) = u − v en (4.2) se obtiene la expresi´ on equivalente Z ∞ fX+Y (u) = fX,Y (z, u − z) dz. (4.3) −∞

En particular, cuando X y Y son independientes la f´ ormula (4.2) se reduce a Z ∞ fX+Y (u) = fX (u − v)fY (v) dv. −∞

Segunda demostraci´ on. Se puede demostrar la proposici´ on anterior mediante el procedimiento usual de encontrar primero la funci´ on de distribuci´ on de X+Y y despu´es derivar para encontrar la funci´ on de densidad. Por definici´ on FX+Y (u) = P (X + Y ≤ u) Z Z fX,Y (x, y) dy dx = =

Z

{x+y≤u} ∞ Z u−x

fX,Y (x, y) dy dx.

−∞

−∞

119

Derivando respecto de u se obtiene Z ∞ fX,Y (x, u − x) dx, fX+Y (u) = −∞

que corresponde a la expresi´ on (4.3) equivalente a (4.2).



Definici´ on 36 La convoluci´ on de dos funciones de densidad continuas f1 y f2 , es una funci´ on denotada por f1 ∗ f2 y definida como sigue Z ∞ (f1 ∗ f2 )(x) = f1 (x − y)f2 (y) dy. −∞

En consecuencia, si X y Y son dos variables aleatorias continuas con correspondientes funciones de densidad f1 (x) y f2 (x) entonces la funci´ on de densidad de X + Y es la convoluci´ on (f1 ∗ f2 )(x). EJERCICIOS 376. Sea (X, Y ) un vector absolutamente continuo con funci´ on de densidad fX,Y (x, y). Demuestre que X + Y tiene funci´ on de densidad Z ∞ fX,Y (u − v, v) dv. fX+Y (u) = −∞

377. Encuentre la funci´ on de densidad de X + Y para (X, Y ) un vector con funci´ on de densidad 1 para 0 < x < a, 0 < y < b. ab b) f (x, y) = e−x−y para x, y > 0.

a) f (x, y) =

c) f (x, y) = e−y para 0 < x < y. d ) fX,Y (x, y) = 8xy para 0 < x < y < 1. e) fX,Y (x, y) = 4x(1 − y) para 0 < x, y < 1. 378. Encuentre la funci´ on de densidad de X + Y cuando X y Y son independientes y ambas con distribuci´ on a) unif(0, 1). b) exp(λ). 379. Encuentre la funci´ on de densidad de X + Y cuando X y Y son independientes y ambas con densidad a) f (x) = 2x para 0 < x < 1. b) f (x) = 6x(1 − x) para 0 < x < 1. 120

c) f (x) = 12 (1 + x) para −1 < x < 1. 380. Sea (X, Y, Z) un vector absolutamente continuo con funci´ on de densidad fX,Y,Z (x, y, z). Demuestre que X +Y +Z tiene funci´ on de densidad Z ∞Z ∞ fX+Y +Z (u) = fX,Y,Z (u − y − z, y, z) dydz. −∞

−∞

381. Sea (X1 , . . . , Xn ) un vector aleatorio absolutamente continuo con funci´ on de densidad fX1 ,...,Xn (x1 , . . . , xn ). Demuestre que Y = X1 + · · · + Xn tiene funci´ on de densidad Z ∞ Z ∞ fY (u) = ··· fX1 ,...,Xn (u − v2 − · · · − vn , v2 , . . . , vn ) dv2 · · · dvn . −∞

−∞

382. Encuentre la funci´ on de densidad de X + Y cuando X y Y tienen distribuci´ on conjunta uniforme en el cuadrado (−1, 1) × (−1, 1). 383. Encuentre la funci´ on de densidad de X +Y +Z cuando X, Y y Z tienen distribuci´ on conjunta uniforme en el cubo (−1, 1) × (−1, 1) × (−1, 1). 384. Encuentre la funci´ on de densidad de X1 + · · · + Xn para (X1 , . . . , Xn ) un vector con distribuci´ on uniforme en el hipercubo (−1, 1) × · · · × (−1, 1) . {z } | n

385. Sean X y Y independientes con distribuci´ on N(µ1 , σ12 ) y N(µ2 , σ22 ) respectivamente. Demuestre que X +Y tiene distribuci´ on N(µ1 +µ2 , σ12 + 2 σ2 ). 386. Sean X1 , . . . , Xn independientes en donde Xi tiene distribuci´ on N(µi , σi2 ) para i = 1, . . . , n. Sean c1 , . . . , cn constantes dadas no todas cero. Demuestre que n n n X X X ci Xi ∼ N( ci µi , c2i σi2 ). i=1

i=1

i=1

387. Sean X1 , . . . , Xn independientes y con id´entica distribuci´ on N(µ, σ 2 ). Demuestre que n 1X Xi ∼ N(µ, σ 2 /n). n i=1

388. Sean X y Y independientes ambas con distribuci´ on exp(λ). Demuestre que X + Y tiene distribuci´ on gama(λ, 2). 389. Sean X y Y independientes con distribuci´ on gama(λ, n) y gama(λ, m) respectivamente. Demuestre que X + Y tiene distribuci´ on gama(λ, n + m).

121

4.2.2.

Distribuci´ on de la resta

Se encontrar´ a ahora una f´ ormula para la funci´ on de densidad de la diferencia de dos variables aleatorias.

Proposici´ on 43 Sea (X, Y ) un vector absolutamente continuo con funci´ on de densidad fX,Y (x, y). Entonces X − Y tiene funci´ on de densidad Z ∞ fX−Y (u) = fX,Y (u + v, v) dv. (4.4) −∞

Demostraci´ on. Procedemos como en la secci´ on anterior. Sea φ : R2 → R2 la transformaci´ on φ(x, y) = (φ1 (x, y), φ2 (x, y)) = (x − y, y)

= (u, v) con inversa

−1 φ−1 (u, v) = (φ−1 1 (u, v), φ2 (u, v))

= (u + v, v) = (x, y). El Jacobiano de la transformaci´ on inversa es ∂φ−1 ∂φ−1 1 1 1 1 ∂u ∂v−1 = = 1. J(u, v) = −1 0 1 ∂φ2 ∂φ2 ∂u ∂v Por la f´ ormula (4.1),

fX−Y,Y (u, v) = fX,Y (u + v, v). Integrando respecto de v se obtiene (4.4).



Con el cambio de variable z(v) = u + v en (4.4) se obtiene la expresi´ on equivalente Z ∞ fX−Y (u) = fX,Y (z, z − u) dz. (4.5) −∞

Cuando X y Y son independientes la f´ ormula (4.4) se reduce a Z ∞ fX (u + v)fY (v) dv. fX−Y (u) = −∞

Segunda demostraci´ on. Nuevamente se puede demostrar la proposici´ on anterior mediante el procedimiento usual de encontrar primero la funci´ on de 122

distribuci´ on y despu´es derivar para encontrar la funci´ on de densidad. Por definici´ on FX−Y (u) = P (X − Y ≤ u) Z Z = fX,Y (x, y) dy dx {x−y≤u} Z ∞Z ∞ = fX,Y (x, y) dy dx. −∞

x−u

Derivando respecto de u se obtiene (4.5) equivalente a (4.4).



Tercera demostraci´ on. A partir de la f´ ormula para la suma de dos variables aleatorias se puede construir una tercera demostraci´ on de (4.4). Por la f´ ormula para la suma, Z ∞ fX−Y (u) = fX+(−Y ) (u) = fX,−Y (u − v, v) dv. −∞

Haciendo el cambio de variable ν = −v se obtiene Z ∞ fX,−Y (u + ν, −ν) dν fX−Y (u) = −∞ Z ∞ = fX,Y (u + ν, ν) dν. −∞

 EJERCICIOS 390. Sea (X, Y ) un vector absolutamente continuo con funci´ on de densidad fX,Y (x, y). Demuestre que X − Y tiene funci´ on de densidad Z ∞ fX−Y (u) = fX,Y (u + v, v) dv. −∞

391. Encuentre la funci´ on de densidad de X − Y para (X, Y ) un vector con funci´ on de densidad conjunta 1 para 0 < x < a, 0 < y < b. ab b) f (x, y) = e−x−y para x, y > 0.

a) f (x, y) =

c) f (x, y) = e−y para 0 < x < y. d ) fX,Y (x, y) = 8xy para 0 < x < y < 1. e) fX,Y (x, y) = 4x(1 − y) para 0 < x, y < 1. 392. Encuentre la funci´ on de densidad de X − Y cuando X y Y son independientes y ambas con distribuci´ on a) unif(0, 1). 123

b) exp(λ). 393. Encuentre la funci´ on de densidad de X − Y cuando X y Y son independientes y ambas con densidad a) f (x) = 2x para 0 < x < 1. b) f (x) = 6x(1 − x) para 0 < x < 1.

c) f (x) = 12 (1 + x) para −1 < x < 1.

394. Sean X y Y independientes con distribuci´ on unif(a − 1/2, a + 1/2) en donde a es un par´ ametro de valor real. Demuestre que  1 − |u| si − 1 < u < 1, fX−Y (u) = 0 otro caso. 395. Sean X y Y independientes con distribuci´ on N(µ1 , σ12 ) y N(µ2 , σ22 ) respectivamente. Demuestre que X −Y tiene distribuci´ on N(µ1 −µ2 , σ12 + σ22 ). Observe que las medias se restan y las varianzas se suman.

4.2.3.

Distribuci´ on del producto

Ahora se encontrar´ a una f´ ormula para la funci´ on de densidad del producto de dos variables aleatorias absolutamente continuas.

Proposici´ on 44 Sea (X, Y ) un vector continuo con funci´ on de densidad conjunta fX,Y (x, y). Entonces XY tiene funci´ on de densidad Z ∞ 1 (4.6) fXY (u) = fX,Y (u/v, v) dv. v −∞ Demostraci´ on. Se usa nuevamente la f´ ormula (4.1). Sea φ : R2 → R2 la transformaci´ on φ(x, y) = (φ1 (x, y), φ2 (x, y)) = (xy, y) = (u, v). La inversa de esta transformaci´ on es, para v 6= 0, −1 φ−1 (u, v) = (φ−1 1 (u, v), φ2 (u, v))

= (u/v, v) = (x, y).

124

El Jacobiano de la transformaci´ on inversa es −1 ∂φ−1 ∂φ 1 1 1/v u/v 2 ∂u ∂v |J(u, v)| = −1 = −1 0 1 ∂φ2 ∂φ2 ∂u ∂v

Por la f´ ormula (4.1), para v 6= 0,

1 = . v

1 fXY,Y (u, v) = fX,Y (u/v, v) | |. v Integrando respecto de v se obtiene (4.6).



Haciendo x(v) = u/v en (4.6) se obtiene la expresi´ on equivalente Z ∞ 1 fXY (u) = fX,Y (x, u/x) | | dx. x −∞

(4.7)

Cuando X y Y son independientes la f´ ormula (4.6) se reduce a Z ∞ 1 fX (u/v)fY (v) | | dv. fXY (u) = v −∞ Segunda demostraci´ on. Usaremos el procedimiento usual de encontrar primero la funci´ on de distribuci´ on de XY y despu´es derivar para encontrar la funci´ on de densidad. Por definici´ on FXY (u) = P (XY ≤ u) Z Z = fX,Y (x, y) dy dx =

Z

0

{xy≤u} Z ∞

−∞

fX,Y (x, y) dydx +

u/x

Z

0

∞ Z u/x

fX,Y (x, y) dydx.

−∞

Derivando respecto de u, Z 0 Z ∞ fXY (u) = fX,Y (x, u/x)(−1/x) dydx + fX,Y (x, u/x)(1/x) dydx. −∞ 0 Z ∞ = fX,Y (x, u/x)|1/x| dx, −∞

que corresponde a (4.7) equivalente a (4.6).



EJERCICIOS 396. Sea (X, Y ) un vector absolutamente continuo con funci´ on de densidad fX,Y (x, y). Demuestre que XY tiene funci´ on de densidad Z ∞ 1 fXY (u) = fX,Y (u/v, v) dv v −∞ 125

397. Encuentre la funci´ on de densidad de XY cuando X y Y son independientes ambas con distribuci´ on a) unif(0, 1). b) exp(λ). c) N(0, 1). 398. Encuentre la funci´ on de densidad de XY cuando X y Y tienen funci´ on de densidad conjunta 1 para 0 < x < a, 0 < y < b. ab b) f (x, y) = e−x−y para x, y > 0.

a) f (x, y) =

c) f (x, y) = e−y para 0 < x < y. d ) fX,Y (x, y) = 8xy para 0 < x < y < 1. e) fX,Y (x, y) = 4x(1 − y) para 0 < x, y < 1. 399. Encuentre la funci´ on de densidad de XY cuando X y Y son independientes y ambas con densidad a) f (x) = 2x para 0 < x < 1. b) f (x) = 6x(1 − x) para 0 < x < 1.

c) f (x) = 21 (1 + x) para −1 < x < 1.

4.2.4.

Distribuci´ on del cociente

Finalmente se encontrar´ a una f´ ormula para el cociente de dos variables aleatorias absolutamente continuas.

Proposici´ on 45 Sea (X, Y ) un vector continuo con funci´ on de densidad conjunta fX,Y (x, y) y tal que Y 6= 0. Entonces X/Y tiene funci´ on de densidad Z ∞ fX/Y (u) = fX,Y (uv, v) |v| dv. (4.8) −∞

Demostraci´ on. Procederemos como en las secciones anteriores. Sea φ : R2 → 2 R la transformaci´ on φ(x, y) = (φ1 (x, y), φ2 (x, y)) = (x/y, y) = (u, v)

126

para y 6= 0 y con inversa −1 φ−1 (u, v) = (φ−1 1 (u, v), φ2 (u, v))

= (uv, v) = (x, y). El Jacobiano de la transformaci´ on inversa es ∂φ−1 ∂φ−1 1 1 v u ∂u ∂v |J(u, v)| = −1 = 0 1 ∂φ ∂φ−1 2 2 ∂u ∂v

Por la f´ ormula (4.1)

= v.

fX/Y,Y (u, v) = fX,Y (uv, v) |v|. De donde se obtiene (4.8).



Haciendo x(v) = uv en (4.8) se obtiene la expresi´ on equivalente Z ∞ fX/Y (u) = fX,Y (x, x/u) |x/u2 | dx.

(4.9)

−∞

Observe nuevamente que cuando X y Y son independientes el integrando en la f´ ormula (4.8) se escribe como el producto de las densidades marginales. Segunda demostraci´ on. Ahora usaremos el procedimiento usual de encontrar primero la funci´ on de distribuci´ on y despu´es derivar para encontrar la funci´ on de densidad. FX/Y (u) = P (X/Y ≤ u) Z Z = fX,Y (x, y) dy dx =

Z

0

{x/y≤u} Z x/u

−∞

fX,Y (x, y) dydx +

−∞

Z

0

∞Z ∞

fX,Y (x, y) dydx.

x/u

Derivando respecto de u, Z ∞ Z 0 2 fX,Y (x, x/u)(x/u2 ) dx fX,Y (x, x/u)(−x/u ) dx + fX/Y (u) = 0 Z−∞ ∞ 2 fX,Y (x, x/u)|x/u | dx, = −∞

que corresponde a (4.9) equivalente a (4.8).



Tercera demostraci´ on. A partir de la f´ ormula para el producto de dos variables aleatorias se puede construir una tercera demostraci´ on de (4.8) de la forma siguiente. Z ∞ 1 fX/Y (u) = fX·(1/Y ) (u) = fX,1/Y (u/v, v) dv. v −∞ 127

Haciendo el cambio de variable x = 1/v se obtiene Z ∞ fX,1/Y (ux, 1/x)|x| dx fX/Y (u) = −∞ Z ∞ = fX,Y (ux, x)|x| dx. −∞

 EJERCICIOS 400. Sea (X, Y ) un vector absolutamente continuo con funci´ on de densidad fX,Y (x, y) tal que Y 6= 0. Demuestre que X/Y tiene funci´ on de densidad Z ∞ fX/Y (u) = fX,Y (uv, v) |v| dv −∞

401. Encuentre la funci´ on de densidad de X/Y para (X, Y ) un vector con funci´ on de densidad conjunta 1 para 0 < x < a, 0 < y < b. ab b) f (x, y) = e−x−y para x, y > 0.

a) f (x, y) =

c) f (x, y) = e−y para 0 < x < y. d ) f (x, y) = 8xy para 0 < x < y < 1. e) f (x, y) = 4x(1 − y) para 0 < x, y < 1. f ) f (x, y) = 2e−x−y para 0 < x < y.

402. Encuentre la funci´ on de densidad de X/Y cuando X y Y son independientes y ambas con distribuci´ on a) exp(λ). b) unif(0, 1). 403. Encuentre la funci´ on de densidad de X/Y cuando X y Y son independientes y ambas con densidad a) f (x) = 2x para 0 < x < 1. b) f (x) = 6x(1 − x) para 0 < x < 1.

c) f (x) = 12 (1 + x) para −1 < x < 1.

404. Sean X y Y independientes con distribuci´ on exp(λ). Encuentre la funci´ on de densidad de a) X/(X + Y ). b) Y /(X + Y ). 405. Sean X y Y independientes ambas con distribuci´ on normal est´ andar. Demuestre que la variable aleatoria Y /X tiene distribuci´ on Cauchy. 128

Las f´ ormulas encontradas se resumen en la siguiente tabla. F´ ormulas para la suma, diferencia, producto y cociente de dos v.a.s 1. fX+Y (u) =

Z



Z



−∞

2. fX−Y (u) =

fX,Y (u − v, v) dv fX,Y (u + v, v) dv

−∞

3. fXY (u) =

Z

4. fX/Y (u) =

∞ −∞

Z



1 fX,Y (u/v, v) dv v

−∞

fX,Y (uv, v) |v| dv

129

Cap´ıtulo 5

Distribuciones muestrales y estad´ısticas de orden Se estudian ahora algunas distribuciones de probabilidad que surgen en la estad´ıstica y otras ´ areas de aplicaci´ on de la probabilidad. Primeramente se define una “muestra aleatoria” como una colecci´ on de variables aleatorias X1 , . . . , Xn que cumplen la condici´ on de ser independientes y de tener cada una de ellas la misma distribuci´ on de probabilidad. Al n´ umero n se le llama tama˜ no de la muestra aleatoria. A menudo se escribe m.a. para abreviar el t´ermino “muestra aleatoria” y se usan las siglas v.a.i.i.d. para denotar el t´ermino “variables aleatorias independientes e id´enticamente distribuidas”. Por lo tanto una m.a. es una colecci´ on de v.a.i.i.d. Se define tambi´en una “estad´ıstica” como una variable aleatoria de la forma g(X1 , . . . , Xn ) en donde X1 , . . . , Xn es una m.a. y g es una funci´ on de Rn en R que es Borel medible. Por ejemplo la “media muestral” es una estad´ıstica ¯ y definida como sigue denotada por X n

X ¯= 1 Xi . X n i=1

¯ es una combinaci´ Observe que X on lineal de los elementos de la m.a. y por lo tanto es una v.a. Otro ejemplo importante de estad´ıstica es la “varianza muestral”, denotada por S 2 y definida como sigue n

S2 =

1 X ¯ 2. (Xi − X) n−1 i=1

Observe que en el denominador aparece el t´ermino n − 1. La media y la varianza muestrales tienen la caracter´ıstica de ser estimadores insesgados para la media y la varianza respectivamente de una distribuci´ on cualquiera. En particular, cuando la muestra aleatoria proviene de una distribuci´ on normal resulta que la media y la varianza muestrales son variables aleatorias 130

independientes. Utilizaremos este interesante e inesperado resultado m´ as adelante y cuya demostraci´ on puede encontrarse en [13]. Proposici´ on 46 Sea X1 , . . . Xn una m.a. de la distribuci´ on N(µ, σ 2 ). En2 ¯ y S son independientes. tonces las estad´ısticas X Este resultado no es v´ alido para cualquier distribuci´ on de probabilidad, por ejemplo no es dif´ıcil verificar lo contrario para una muestra aleatoria de la distribuci´ on Ber(p). En la siguiente esecci´ on se estudian algunas distribuciones de probabilidad estrechamente relacionadas con la media y la varianza muestral.

EJERCICIOS 406. Sea X1 , . . . , Xn una m.a. tomada de una distribuci´ on con media µ y 2 varianza σ . Demuestre que ¯ = µ. a) E(X) b) E(S 2 ) = σ 2 . ¯ Estos resultados son de importancia en estad´ıstica y muestran que X 2 2 y S son estimadores insesgados de los par´ ametros µ y σ respectivamente. 407. Sea X1 , . . . , Xn una m.a. tomada de una distribuci´ on con media µ y 2 varianza σ . Demuestre que ¯ = σ 2 /n. a) Var(X) 408. Sea X1 , . . . Xn una m.a. de la distribuci´ on Ber(p). Demuestre que las ¯ y S 2 no son independientes. estad´ısticas X

5.1.

Distribuciones muestrales

Estudiamos a continuaci´ on algunas distribuciones de probabilidad que surgen en la estad´ıstica al considerar funciones de una muestra aleatoria. Distribuci´ on ji-cuadrada. Se dice que X tiene una distribuci´ on ji-cuadrada con n > 0 grados de libertad si su funci´ on de densidad es, para x > 0, 1 f (x) = Γ(n/2)

 n/2 1 xn/2−1 e−x/2 . 2

En este caso se escribe X ∼ χ2 (n). En la figura 5.1 puede apreciarse el comportamiento de la funci´ on de densidad de esta distribuci´ on para varios 131

valores del par´ ametro n. Se puede demostrar que E(X) = n Var(X) = 2n. fHxL

1 €€€€ 2

1

2

3

4

5

6

7

8

9

x

Figura 5.1: Funci´on de densidad de la distribuci´on χ2 (n) para n = 1, 2, 3, 4 de arriba hacia abajo sobre el eje vertical.

Observe que la distribuci´ on χ2 (n) con n = 2 se reduce a la distribuci´ on exp(λ) con λ = 1/2. La distribuci´ on ji-cuadrada puede encontrarse como indica el siguiente resultado.

Proposici´ on 47 Si X ∼ N(0, 1) entonces X 2 ∼ χ2 (1).

Demostraci´ on. Para x > 0, FX 2 (x) = P (X 2 ≤ x) √ √ = P (− x ≤ X ≤ x) √ √ = FX ( x) − FX (− x). Derivando √ √ 1 1 fX 2 (x) = fX ( x) √ + fX (− x) √ 2 x 2 x √ 1 = fX ( x) √ x 1 1 = √ e−x/2 √ x 2π  1/2 1 1 = x1/2−1 e−x/2 Γ(1/2) 2 correspondiente a la densidad χ2 (1).



La suma de dos o mas variables aleatorias independientes con distribuci´ on ji-cuadrada es nuevamente una variable aleatoria ji-cuadrada y sus grados de 132

libertad son la suma de los grados de libertad de cada uno de los sumandos. Este es el contenido de la siguiente proposici´ on.

Proposici´ on 48 Sean X1 , . . . , Xm independientes tales que Xi ∼ χ2 (ni ), para i = 1, . . . , m. Entonces n X i=1

Xi ∼ χ2 (n1 + · · · + nm ).

Demostraci´ on. Es suficiente demostrar el resultado para el caso de dos variables aleatorias. Sean X y Y independientes con distribuci´ on ji-cuadrada con grados de libertad n y m respectivamente. Este ligero cambio en la notaci´ on nos evitar´ a el uso de sub´ındices. Por la f´ ormula (4.2), para u > 0, Z u fX+Y (u) = fX (u − v)fY (v) dv 0

=

=

 n/2 1 (u − v)n/2−1 e−(u−v)/2 2 0  m/2 1 1 v m/2−1 e−v/2 dv Γ(m/2) 2  (n+m)/2 1 1 e−u/2 Γ(n/2)Γ(m/2) 2 Z u (u − v)n/2−1 v m/2−1 dv.

Z

u

1 Γ(n/2)

0

Haciendo el cambio de variable w(v) = v/u en la integral se obtiene  (n+m)/2 1 1 fX+Y (u) = e−u/2 u(n+m)/2−1 Γ(n/2)Γ(m/2) 2 Z 1 (1 − w)n/2−1 wm/2−1 dw. 0

La integral resultante es B(n/2, m/2). Entonces  (n+m)/2 1 B(n/2, m/2) e−u/2 u(n+m)/2−1 fX+Y (u) = Γ(n/2)Γ(m/2) 2  (n+m)/2 1 1 = e−u/2 u(n+m)/2−1 . Γ((n + m)/2) 2 Esta u ´ltima expresi´ on es la funci´ on de densidad de la distribuci´ on χ2 (n+m).  El resultado anterior puede demostrarse de una manera m´ as simple y elegante usando la funci´ on generadora de momentos o la funci´ on caracter´ıstica, presentadas en el siguiente cap´ıtulo. 133

Proposici´ on 49 Sean X1 , . . . , Xn independientes con distribuci´ on N(µ, σ 2 ). Entonces n X (Xi − µ)2 ∼ χ2 (n). σ2 i=1

Demostraci´ on. Esto es una consecuencia sencilla de las dos proposiciones anteriores. Como cada Xi tiene distribuci´ on N(µ, σ 2 ) para i = 1, . . . , n, entonces (Xi − µ)/σ tiene distribuci´ on N(0, 1). Por lo tanto (Xi − µ)2 ∼ χ2 (1). σ2

En consecuencia

n X (Xi − µ)2

σ2

i=1

∼ χ2 (n). 

Enunciamos el siguiente resultado cuya demostraci´ on se pide realizar en el ejercicio 517 de la p´ agina 170, una vez que contemos con la poderosa herramienta de las funciones generadoras de momentos.

Proposici´ on 50 Sean X y Y independientes tales que X tiene distribuci´ on 2 2 χ (n) y X + Y tiene distribuci´ on χ (m). Suponga m > n. Entonces Y tiene distribuci´ on χ2 (m − n).

Con ayuda de esta proposici´ on se demuestra ahora el siguiente resultado de particular importancia en estad´ıstica.

Proposici´ on 51 Sean X1 , . . . , Xn independientes con distribuci´ on N(µ, σ 2 ). Entonces n−1 2 S ∼ χ2 (n − 1). σ2

Demostraci´ on. n X i=1

2

(Xi − µ)

=

n X i=1

=

n X i=1

Diviendo entre σ 2 n X (Xi − µ)2 i=1

σ2

¯ + (X ¯ − µ)]2 [(Xi − X) ¯ 2 + n(X ¯ − µ)2 . (Xi − X)

n−1 2 = S + σ2 134

2 ¯ X −µ √ . σ/ n

El t´ermino del lado izquierdo tiene distribuci´ on χ2 (n) mientras que el segundo sumando del lado derecho tiene distribuci´ on χ2 (1). Por la Proposici´ on 50 2 ¯ y recordando que X y S son independientes, se concluye que el primer sumando del lado derecho tiene distribuci´ on χ2 (n − 1).  EJERCICIOS 409. Demuestre que la funci´ on de densidad de la distribuci´ on χ2 (n) efectivamente lo es. 410. Demuestre que la distribuci´ on χ2 (n) con n = 2 se reduce a la distribuci´ on exp(λ) con λ = 1/2. 411. Demuestre que la distribuci´ on gama(n/2, λ) con λ = 1/2 se reduce a 2 la distribuci´ on χ (n). 412. Sea X con distribuci´ on χ2 (n). Demuestre que a) E(X) = n. Γ(m + n/2) para m = 1, 2, . . . Γ(n/2) c) Var(X) = 2n.

b) E(X m ) = 2m

413. Demuestre que si X ∼ N(0, 1) entonces X 2 ∼ χ2 (1). 414. Sean X1 , . . . , Xn independientes con distribuci´ on N(µ, σ 2 ). Demuestre que ¯ − µ)2 (X ∼ χ2 (1). σ 2 /n 415. Demuestre que si X1 , . . . , Xm son independientes tales que Xi ∼ χ2 (ni ) para i = 1, . . . , m entonces m X i=1

Xi ∼ χ2 (n1 + · · · + nm ).

416. Sean X1 , . . . , Xn independientes con distribuci´ on N(0, 1). Demuestre que n X Xi2 ∼ χ2 (n). i=1

417. Sean X1 , . . . , Xn independientes tales que cada Xi tiene distribuci´ on N(µi , σi2 ) para i = 1, . . . , n. Demuestre que n X (Xi − µi )2 i=1

σi2

135

∼ χ2 (n).

418. Sean X1 , . . . , Xn independientes con distribuci´ on N(µ, σ 2 ). Demuestre que (n − 1) 2 S ∼ χ2 (n − 1), σ2 419. Sean X y √ Y independientes ambas con distribuci´ on normal est´ andar. Sean R = X 2 + Y 2 y θ = tan−1 (Y /X). Demuestre que a) R2 tiene distribuci´ on χ2 (n) con n = 2 grados de libertad. b) tan θ tiene distribuci´ on Cauchy. c) R y θ son independientes. Distribuci´ on t. La variable aleatoria X tiene una distribuci´ on t de Student con n > 0 grados de libertad si su funci´ on de densidad est´ a dada por Γ((n + 1)/2) f (x) = √ (1 + x2 /n)−(n+1)/2 nπ Γ(n/2)

para − ∞ < x < ∞.

En este caso se escribe X ∼ t(n). Esta distribuci´ on apareci´ o por primera vez en 1908 en un trabajo publicado por William Gosset bajo el el seud´ onimo de ”Student”. En la figura 5.2 puede apreciarse el comportamiento de la funci´ on de densidad de la distribuci´ on t(n) para varios valores del par´ ametro n. Se puede demostrar que E(X) = 0, y Var(X) =

n n−2

para n > 2.

fHxL

2 1

-2

-1

1

2

x

Figura 5.2: Funci´on de densidad de la distribuci´on t(n) para n = 1, 2, 3, 4 de abajo hacia arriba.

La primera igualdad establece entonces que la distribuci´ on t(n) se encuentra siempre centrada en cero para cualquier valor del par´ ametro n. Se muestran a continuaci´ on algunas formas en las que surge esta distribuci´ on.

136

Proposici´ on 52 Sean X ∼ N(0, 1) y Y ∼ χ2 (n) independientes. Entonces X p ∼ t(n). Y /n Demostraci´ on. Por independencia, la funci´ on de densidad conjunta de X y Y es, para y > 0, 1 1 2 fX,Y (x, y) = √ e−x /2 · Γ(n/2) 2π

 n/2 1 y n/2−1 e−y/2 . 2

Se aplica la f´ ormula (4.1) para la transformaci´ on p φ(x, y) = (x, x/ y/n) con inversa

φ−1 (s, t) = (s, ns2 /t2 ). El Jacobiano de la transformaci´ on inversa es ∂x/∂s ∂x/∂t 1 0 J(s, t) = = 2sn/t2 −2ns2 /t3 ∂y/∂s ∂y/∂t

Por lo tanto

= −2ns2 /t3 .

fS,T (s, t) = fX (s)fY (ns2 /t2 ) · 2ns2 /t3  n/2 n/2−1 n−2 1 1 n s 1 −s2 /2 2 2 · e−ns /2t · 2ns2 /t3 . = √ e n−2 Γ(n/2) 2 t 2π Integrando respecto de s, 1 nn/2 fT (t) = √ 2π 2n/2−1 Γ(n/2)tn+1

Z



s e

=



1 + n2 2 2t



ds.

0

Ahora efectuamos el cambio de variable r(s) = s2  emos dr = 2s 21 + 2tn2 ds, y entonces fT (t) =

2 n −s

1 2

+

nn/2 1 √  2π 2n/2−1 Γ(n/2)tn+1 2 1 + n2 (n+1)/2 2 2t 1 Γ((n + 1)/2) √ , nπ Γ(n/2) (1 + t2 /n)(n+1)/2

n 2t2

 , de donde obten-

Z



r(n−1)/2 e−r dr

0

correspondiente a la funci´ on de densidad de la distribuci´ on t(n).



El siguiente resultado es de particular importancia en estad´ıstica para efectuar estimaciones del par´ ametro µ de una poblaci´ on normal cuando la varianza σ 2 es desconocida. 137

Proposici´ on 53 Sea X1 , . . . , Xn una m.a. de una distribuci´ on N(µ, σ 2 ). Entonces ¯ −µ X √ ∼ t(n − 1). S/ n

Demostraci´ on. Use la Proposici´ on 52 aplicada a las variables aleatorias independientes ¯ −µ X √ ∼ N (0, 1) σ/ n n−1 2 y S ∼ χ2 (n − 1). σ2  EJERCICIOS 420. Demuestre que la funci´ on de densidad de una distribuci´ on t(n) efectivamente lo es. 421. Sea X con distribuci´ on t(n). Demuestre que a) E(X) = 0. b) Var(X) =

n n−2

para n > 2.

422. Demuestre que la distribuci´ on t(n+1) tiene momentos finitos de orden menor o igual a n pero ning´ un otro momento de orden superior. 423. Sean X ∼ N(0, 1) y Y ∼ χ2 (n) independientes. Demuestre que X p ∼ t(n). Y /n

424. Sea X1 , . . . , Xn una m.a. de una poblaci´ on N(µ, σ 2 ). Demuestre que ¯ −µ X √ ∼ t(n − 1). S/ n Distribuci´ on F. La variable aleatoria X tiene una distribuci´ on F de Snedecor con par´ ametros n > 0 y m > 0 si su funci´ on de densidad es, para x > 0, f (x) =

Γ((n + m)/2)  n n/2 n/2−1  n −(n+m)/2 1+ x . x Γ(n/2) Γ(m/2) m m

138

fHxL

fHxL

3 €€€€ 4

3 €€€€ 4

1

2

3

4

x

1

2

(a)

3

x

4

(b)

Figura 5.3: Funci´on de densidad de la distribuci´on F(n, m) para (a) n = 1, 10, 100 y m = 5 de abajo hacia arriba sobre el eje vertical en x = 1, y (b) n = 5 y m = 1, 5, 50 de abajo hacia arriba sobre el eje vertical en x = 1.

Se escribe X ∼ F(n, m). En la figura 5.3 se muestra el comportamiento de la funci´ on de densidad de la distribuci´ on F(n, m) para varios valores de los par´ ametros n y m. Puede demostrarse que E(X) = Var(X) =

m para m > 2, m−2 2m2 (m + n − 2) para m > 4. n(m − 2)2 (m − 4)

Los siguientes resultados indican la forma de obtener la distribuci´ on F .

Proposici´ on 54 Sean X ∼ χ2 (n) y Y ∼ χ2 (m) independientes. Entonces X/n ∼ F(n, m). Y /m

Demostraci´ on. Aplique la f´ ormula (4.8) para la funci´ on de densidad del cociente de dos variables aleatorias. 

Proposici´ on 55 Si X ∼ t(n) entonces X 2 ∼ F(1, n).

Demostraci´ on. Aplique la f´ ormula √ √ 1 1 fX 2 (x) = fX ( x) √ + fX (− x) √ . 2 x 2 x  139

EJERCICIOS 425. Demuestre que la funci´ on de densidad de la distribuci´ on F(n, m) efectivamente lo es. 426. Sea X con distribuci´ on F(n, m). Demuestre que m para m > 2. m−2 2m2 (m + n − 2) para m > 4 . b) Var(X) = n(m − 2)2 (m − 4)

a) E(X) =

427. Sea X con distribuci´ on F(n, m). Demuestre que Y = 1/X tiene distribuci´ on F(m, n). Observe el cambio en el orden de los par´ ametros. Este resultado es u ´til para obtener valores de F que no aparecen en tablas. 428. Sea X con distribuci´ on F(n, m). Demuestre que cuando m tiende a infinito la funci´ on de densidad de nX converge puntualmente a la funci´ on de densidad de la distribuci´ on χ2 (n). 429. Sean X ∼ χ2 (n) y Y ∼ χ2 (m) independientes. Demuestre que X/n ∼ F(n, m). Y /m 430. Demuestre que si X ∼ t(n) entonces X 2 ∼ F(1, n).

5.2.

Estad´ısticas de orden

Dada una muestra aleatoria X1 , . . . , Xn , podemos evaluar cada una de estas variables en un punto muestral ω cualquiera y obtener una colecci´ on de n´ umeros reales X1 (ω), . . . , Xn (ω). Estos n´ umeros pueden ser ordenados de menor a mayor incluyendo repeticiones. Si X(i) (ω) denota el i-´esimo n´ umero ordenado, tenemos entonces la colecci´ on no decreciente de n´ umeros reales X(1) (ω) ≤ · · · ≤ X(n) (ω). Ahora hacemos variar el argumento ω y lo que se obtiene son las as´ı llamadas estad´ısticas de orden. Este proceso de ordenamiento resulta ser de importancia en algunas aplicaciones. Tenemos entonces la siguiente definici´ on.

140

Definici´ on 37 Sea X1 , . . . , Xn una muestra aleatoria. A las variables aleatorias ordenadas X(1) = m´ın{X1 , . . . , Xn } .. . X(n) = m´ ax{X1 , . . . , Xn } se les conoce con el nombre de “estad´ısticas de orden” A X(1) se le llama primera estad´ıstica de orden, a X(2) se le llama segunda estad´ıstica de orden, etc. A X(i) se le llama i-´esima estad´ıstica de orden, i = 1, . . . , n.

Nuestro objetivo en esta secci´ on es encontrar algunas f´ ormulas relacionadas con las distribuciones de probabilidad de las estad´ısticas de orden cuando se conoce la distribuci´ on de cada variable de la muestra aleatoria.

5.2.1.

Distribuciones individuales

Comenzamos encontrando la distribuci´ on de la primera y de la u ´ltima estad´ıstica de orden de manera individual.

Proposici´ on 56 Sea X1 , . . . , Xn una m.a. de una distribuci´ on continua con funci´ on de densidad f (x) y funci´ on de distribuci´ on F (x). Entonces 1. fX(1) (x) = nf (x) [1 − F (x)]n−1 . 2. fX(n) (x) = nf (x) [F (x)]n−1 .

Demostraci´ on. Para verificar (1) se calcula primero la funci´ on de distribuci´ on FX(1) (x) = P (X(1) ≤ x)

= P (m´ın{X1 , . . . , Xn } ≤ x)

= 1 − P (m´ın{X1 , . . . , Xn } > x) = 1 − P (X1 > x, . . . , Xn > x) = 1 − [P (X1 > x)]n

= 1 − [1 − F (x)]n . Derivando

fX(1) (x) = nf (x) [1 − F (x)]n−1 .

Para demostrar (2) se procede de manera an´ aloga, FX(n) (x) = P (X(n) ≤ x) 141

= P (m´ ax{X1 , . . . , Xn } ≤ x)

= P (X1 ≤ x, . . . , Xn ≤ x) = [P (X1 ≤ x)]n

= [F (x)]n . Por lo tanto

fX(n) (x) = nf (x) [F (x)]n−1 . 

Ahora presentamos el resultado general de la funci´ on de densidad de la i´esima estad´ıstica de orden.

Proposici´ on 57 Sea X1 , . . . , Xn una m.a. de una distribuci´ on continua con funci´ on de densidad f (x) y funci´ on de distribuci´ on F (x). Entonces   n fX(i) (x) = i f (x)[F (x)]i−1 [1 − F (x)]n−i . i

Demostraci´ on. Sea Yi la variable aleatoria dada por  1 si Xi ≤ x, Yi = 1(−∞,x] (Xi ) = 0 si Xi > x, en donde Xi es el i-´esimo elemento de la muestra aleatoria. Las variables Y1 , . . . , Yn son independientes y cada una de ellas puede considerarse un ensayo Bernoulli con probabilidad de ´exito, es decir tomar el valor 1, igual a P (Xi ≤ x) = F (x). Entonces la suma Y1 + · · · + Yn corresponde al n´ umero de v.a.s Xi que cumplen la condici´ on Xi ≤ x y por lo tanto esta suma tiene distribuci´ on bin(n, p) con p = F (x). Entonces FX(i) (x) = P (X(i) ≤ x)

= P (Y1 + · · · + Yn ≥ i)  n  X n = [F (x)]j [1 − F (x)]n−j . j j=i

Derivando y despu´es simplificando,  n  X n f (x)[F (x)]j−1 [1 − F (x)]n−j−1 [j − nF (x)] fX(i) (x) = j j=i  n  X n f (x)[F (x)]j−1 [1 − F (x)]n−j−1 [j(1 − F (x)) − (n − j)F (x)] = j j=i   n i f (x)[F (x)]i−1 [1 − F (x)]n−i . = i 142

 Observe que la f´ ormula reci´en demostrada se reduce a las que aparecen en la Proposici´ on 56 cuando i = 1 e i = n. Ahora presentamos una demostraci´ on corta e intuitiva del mismo resultado. Segunda demostraci´ on. Sea h > 0 arbitrario y considere los siguientes tres intervalos ajenos (−∞, x], (x, x + h] y (x + h, ∞). La probabilidad de que i − 1 variables de la muestra tomen un valor en el intervalo (−∞, x], una de ellas en (x, x+h] y el resto n−i en (x+h, ∞) es, de acuerdo a la distribuci´ on multinomial, n! [F (x)]i−1 [F (x + h) − F (x)][1 − F (x + h)]n−i . (i − 1)! 1! (n − i)! Haciendo h tender a cero se obtiene   n fX(i) (x) = i f (x)[F (x)]i−1 [1 − F (x)]n−i . i  Sea X1 , . . . , Xn una m.a. A la variable aleatoria R = X(n) −X(1) se le conoce como el “rango” de la muestra. El siguiente resultado provee de una f´ ormula para la funci´ on de densidad de R.

Proposici´ on 58 Sea X1 , . . . , Xn una m.a. tomada de una distribuci´ on continua con funci´ on de densidad f (x) y funci´ on de distribuci´ on F (x). Entonces para r > 0, Z ∞ f (y)f (y − r)[F (y) − F (y − r)]n−2 dy. fR (r) = n(n − 1) −∞

Demostraci´ on. Se calcula primero la distribuci´ on conjunta FX(1) ,X(n) (x, y). Para x ≤ y, FX(1) ,X(n) (x, y) = P (X(1) ≤ x, X(n) ≤ y)

= P (X(n) ≤ y) − P (X(n) ≤ y, X(1) > x)

= [F (y)]n − P (x < X1 ≤ y, . . . , x < Xn ≤ y)

= [F (y)]n − [F (y) − F (x)]n . Por lo tanto,

∂2 [F (y) − F (x)]n ∂x∂y = n(n − 1)f (y)f (x)[F (y) − F (x)]n−2 .

fX(n) ,X(1) (x, y) = −

143

Ahora se usa la f´ ormula (4.4) para la diferencia de dos variables aleatorias. Para r > 0 y n ≥ 2, Z ∞ fX(n) −X(1) (r) = n(n − 1) f (y)f (y − r)[F (y) − F (y − r)]n−2 dy. −∞

 EJERCICIOS 431. Sea X1 , . . . , Xn una m.a. tomada de una distribuci´ on continua F (x) con funci´ on de densidad f (x). Demuestre nuevamente que a) fX(1) (x) = nf (x) [1 − F (x)]n−1 . b) fX(n) (x) = nf (x) [F (x)]n−1 .

432. Demuestre que las funciones fX(1) (x) y fX(n) (x) del ejercicio anterior son efectivamente funciones de densidad. 433. Sea X1 , . . . , Xn una m.a. de una distribuci´ on continua F (x) con funci´ on de densidad f (x). Demuestre nuevamente que   n i f (x)[F (x)]i−1 [1 − F (x)]n−i fX(i) (x) = i y compruebe que ´esta es efectivamente una funci´ on de densidad. 434. Compruebe que la f´ ormula de la Proposici´ on 57 se reduce a la f´ ormulas (1) y (2) de la Proposici´ on 56 cuando i = 1 e i = n respectivamente. 435. Sea X1 , . . . , Xn una m.a. de una distribuci´ on unif(0, 1). Demuestre que la i-´esima estad´ıstica de orden tiene distribuci´ on beta(i, n + 1 − i). Encuentre por lo tanto su esperanza y varianza. 436. Sea X1 , . . . , Xn una m.a. de una distribuci´ on exp(λ). Encuentre la funci´ on de densidad de la i-´esima estad´ıstica de orden. 437. Sean X(1) , X(2) las estad´ısticas de orden de una m.a. de tama˜ no dos √ de una distribuci´ on N(µ, σ 2 ). Demuestre que E[X(1) ] = µ − σ/ π. 438. Sean X(1) , X(2) las estad´ısticas de orden de una m.a. de tama˜ no dos de una distribuci´ on N(µ, σ 2 ). Calcule E[X(2) ]. 439. Sea X1 , . . . , Xn una m.a. de una distribuci´ on F (x). Sea x un n´ umero real cualquiera y para i = 1, . . . , n defina Yi = 1(−∞,x] (Xi ). Demuestre que Y1 , . . . , Yn son independientes cada una de ellas con distribuci´ on Ber(n, p) con p = F (x). Este hecho fue utilizado en el procedimiento para encontrar la funci´ on de densidad de la i-´esima estad´ıstica de orden en la Proposici´ on 57. 144

440. Sean X1 y X2 absolutamente continuas e independientes y defina Y = m´ ax{X1 , X2 }. Demuestre que a) FY (y) = FX1 (y)FX2 (y). b) fY (y) = FX1 (y)fX2 (y) + fX1 (y)FX2 (y). c) fY (y) = 2FX (y)fX (y) cuando X1 y X2 tienen la misma distribuci´ on. 441. Use el ejercicio anterior para encontrar la funci´ on de densidad de Y = m´ ax{X1 , X2 } cuando X1 y X2 son independientes cada una con distribuci´ on a) unif(0, 1). b) exp(λ). 442. Sean X1 y X2 absolutamente continuas e independientes. Defina Y = m´ın{X1 , X2 }. Demuestre que a) FY (y) = 1 − [1 − FX1 (y)][1 − FX2 (y)].

b) fY (y) = [1 − FX1 (y)]fX2 (y) + fX1 (y)[1 − FX2 (y)].

c) fY (y) = 2[1 − FX (y)]f (y) cuando X1 y X2 tienen la misma distribuci´ on.

443. Use el ejercicio anterior para encontrar la funci´ on de densidad de Y = m´ın{X1 , X2 } cuando X1 y X2 son independientes cada una con distribuci´ on a) unif(0, 1). b) exp(λ). 444. Sea X1 , . . . , Xn una m.a. de una distribuci´ on continua F (x) con funci´ on de densidad f (x). Sea R = X(n) − X(1) el rango de la muestra. Demuestre que para r > 0 y n ≥ 2, Z ∞ fR (r) = n(n − 1) f (y)f (y − r)[F (y) − F (y − r)]n−2 dy. −∞

445. Se escogen n puntos al azar del intervalo unitario (0, 1). Demuestre que la funci´ on de densidad de la distancia m´ axima R entre cualesquiera dos puntos es  n(n − 1)rn−2 (1 − r) si 0 < r < 1, fR (r) = 0 otro caso.

5.2.2.

Distribuci´ on conjunta

Ahora presentamos dos resultados acerca de la distribuci´ on conjunta de las estad´ısticas de orden. El primer resultado es acerca de la distribuci´ on conjunta de todas ellas y despu´es consideraremos la distribuci´ on de cualesquiera dos. 145

Proposici´ on 59 Sea X1 , . . . , Xn una m.a. de una distribuci´ on continua con funci´ on de densidad f (x). Para x1 < · · · < xn , fX(1) ,...,X(n) (x1 , . . . , xn ) = n!f (x1 ) · · · f (xn ).

Demostraci´ on. Se considera la funci´ on de distribuci´ on conjunta de todas las estad´ısticas de orden y despu´es se deriva n veces para encontrar la funci´ on de densidad. Para x1 < x2 < · · · < xn , FX(1) ,...,X(n) (x1 , . . . , xn ) = P (X(1) ≤ x1 , X(2) ≤ x2 , . . . , X(n) ≤ xn ). Como (X(2) ≤ x2 ) = (x1 < X(2) ≤ x2 ) ∪ (X(2) ≤ x1 ) se obtiene la expresi´ on FX(1) ,...,X(n) (x1 , . . . , xn ) = P (X(1) ≤ x1 , x1 < X(2) ≤ x2 , . . . , X(n) ≤ xn ) + P X(1) ≤ x1 , X(2) ≤ x1 , . . . , X(n) ≤ xn ).

Observe que el segundo sumando no depende de x2 asi que al tomar la derivada respecto de esta variable, ´este t´ermino desaparece. De manera an´ aloga procedemos con los eventos (X(3) ≤ x3 ) hasta (X(n) ≤ xn ). Al final se obtiene fX(1) ,...,X(n) (x1 , . . . , xn ) =

∂n P (X(1) ≤ x1 , x1 < X(2) ≤ x2 , . . . , xn−1 < Xn ≤ xn ). ∂x1 · · · ∂xn

Como ahora los intervalos involucrados son disjuntos, la distribuci´ on multinomial asegura que P (X(1) ≤ x1 , x1 < X(2) ≤ x2 , . . . , xn−1 < Xn ≤ xn )

= n! P (X1 ≤ x1 , x1 < X2 ≤ x2 , . . . , xn−1 < Xn ≤ xn )

= n! F (x1 )[F (x2 ) − F (x1 )] · · · [F (xn ) − F (xn−1 )],

en donde la u ´ltima igualdad se sigue de la independencia e id´entica distribuci´ on de las variables de la muestra. Ahora solo resta derivar para encontrar el resultado.  La siguiente es una prueba corta pero no formal del mismo resultado. Segunda demostraci´ on. Sea x1 < x2 < · · · < xn y h > 0 suficientemente peque˜ no tal que los intervalos (x1 , x1 + h], (x2 , x2 + h], . . . , (xn , xn + h] son ajenos. La probabilidad de que las variables aleatorias tomen valores cada una de ellas en uno y solo uno de estos intervalos es, de acuerdo a la distribuci´ on multinomial, n! [F (x1 + h) − F (x1 )] · · · [F (xn + h) − F (xn )]. 1! · · · 1!

Haciendo h tender a cero se obtiene

fX(1) ,...,X(n) (x1 , . . . , xn ) = n!f (x1 ) · · · f (xn ). 146

 Ahora nos interesa encontrar una f´ ormula para la densidad conjunta de cualesquiera dos estad´ısticas de orden.

Proposici´ on 60 Sea X1 , . . . , Xn una m.a. de una distribuci´ on continua con funci´ on de distribuci´ on F (x) y funci´ on de densidad f (x). Sea i < j. Para x < y,   n fX(i) ,X(j) (x, y) = i(j − i) f (x)f (y) i, j − i, n − j [F (x)]i−1 [F (y) − F (x)]j−i−1 [1 − F (y)]n−j .

Demostraci´ on intuitiva. Para x < y considere los intervalos ajenos (−∞, x], (x, x + h], (x + h, y], (y, y + h] y (y + h, ∞) para h > 0 suficientemente peque˜ na. La probabilidad de que i − 1 variables de la muestra tomen un valor en (−∞, x], una de ellas en (x, x + h], j − i + 1 variables en (x + h, y], otra en (y, y + h] y el resto n − j variables tomen un valor en (y + h, ∞) es, de acuerdo a la distribuci´ on multinomial, n! [F (x + h) − F (x)][F (y) − F (x + h)]j−i−1 (i − 1)! 1! (j − i − 1)! 1! (n − j)! [F (x)]i−1 [F (y + h) − F (y)][1 − F (y + h)]n−j .

Haciendo h tender a cero se obtiene la f´ ormula anunciada.  EJERCICIOS 446. Sea X1 , . . . , Xn una m.a. de una distribuci´ on continua con funci´ on de densidad f (x). Demuestre nuevamente que para x1 < x2 < · · · < xn , fX(1) ,...,X(n) (x1 , . . . , xn ) = n!f (x1 ) · · · f (xn ) y compruebe que ´esta es efectivamente una funci´ on de densidad. 447. A partir de la f´ ormula para fX(1) ,...,X(n) (x1 , . . . , xn ) calcule la funci´ on de densidad marginal de X(1) encontrando nuevamente que fX(1) (x) = nf (x)[1 − F (x)]n−1 . 448. A partir de la f´ ormula para fX(1) ,...,X(n) (x1 , . . . , xn ) calcule la funci´ on de densidad marginal de X(n) encontrando nuevamente que fX(n) (x) = nf (x)[F (x)]n−1 . 147

449. A partir de la f´ ormula para fX(1) ,...,X(n) (x1 , . . . , xn ) calcule la funci´ on de densidad marginal de X(i) para i = 1, . . . , n encontrando nuevamente que   n fX(i) (x) = i f (x)[F (x)]i−1 [1 − F (x)]n−i . i 450. Sea X1 , . . . , Xn una m.a. de una distribuci´ on continua con funci´ on de distribuci´ on F (x) y funci´ on de densidad f (x). Sea i < j. Demuestre nuevamente que para x < y,   n fX(i) ,X(j) (x, y) = i(j − i) f (x)f (y) i, j − i, n − j [F (x)]i−1 [F (y) − F (x)]j−i−1 [1 − F (y)]n−j

y compruebe que ´esta es una funci´ on de densidad bivariada. 451. A partir de la f´ ormula para fX(i) ,X(j) (x, y) calcule la funci´ on de densidad marginal de X(i) encontrando nuevamente que fX(i) (x) =



n i



i f (x)[F (x)]i−1 [1 − F (x)]n−i .

452. Sea X1 , . . . , Xn una m.a. de una distribuci´ on unif(0, 1). Encuentre la funci´ on de densidad de a) X(1) y X(2) conjuntamente. b) R = X(n) − X(1) . 453. Sea X1 , . . . , Xn una m.a. de una distribuci´ on unif(0, 1). Encuentre la funci´ on de densidad de la mediana muestral a) para n impar. b) para n par. 454. Sea X1 , . . . , Xn una m.a. de una distribuci´ on unif(0, 1). Encuentre la funci´ on de densidad del vector (X(1) , . . . , X(n) ). 455. Sea X1 , . . . , Xn una m.a. de una distribuci´ on unif(0, 1). Calcule el coeficiente de correlaci´ on entre X(i) y X(j) . 456. Sea X1 , . . . , Xn una m.a. de una distribuci´ on continua F (x) con funci´ on de densidad f (x). Demuestre directamente que para x < y, fX(1) ,X(n) (x, y) = n(n − 1)f (x)f (y)[F (y) − F (x)]n−2 . 457. Utilice el ejercicio anterior para obtener la densidad conjunta de X(1) y X(n) para una m.a. de tama˜ no n de una distribuci´ on a) unif(0, 1). b) exp(λ). 148

458. Calcule la covarianza entre X(1) y X(n) para una m.a. de tama˜ no n de una distribuci´ on a) unif(0, 1). b) exp(λ).

149

Cap´ıtulo 6

Convergencia En este cap´ıtulo se presenta una introducci´ on al tema de convergencia de variables aleatorias. Se estudian distintas formas en que una sucesi´ on de variables aleatorias puede converger.

6.1.

Convergencia puntual

Sea X1 , X2 , . . . una sucesi´ on infinita de variables aleatorias. Al evaluar cada variable de la sucesi´ on en alg´ un ω de Ω se obtiene la sucesi´ on num´erica X1 (ω), X2 (ω), . . .. Suponga que esta sucesi´ on converge a un cierto n´ umero real denotado por X(ω). Si lo anterior se cumple para todos y cada uno de los elementos de Ω entonces se dice que la sucesi´ on de variables aleatorias ”converge puntualmente” y su l´ımite es la funci´ on X : Ω → R definida naturalmente por X(ω) = l´ım Xn (ω). n→∞

Hemos demostrado al inicio de nuestro curso que en esta situaci´ on la funci´ on l´ımite X es efectivamente una variable aleatoria. Formalmente tenemos entonces la siguiente defininici´ on. Definici´ on 38 La sucesi´ on X1 , X2 , . . . converge puntualmente a X si para cada ω en Ω X(ω) = l´ım Xn (ω). n→∞

Por ejemplo, suponga el espacio medible ([0, 1], B[0, 1]) y defina la sucesi´ on de variables aleatorias Xn (ω) = ω n . Entonces para ω ∈ [0, 1), Xn (ω) → 0. Mientras que para ω = 1, Xn (ω) = 1. De esta manera la sucesi´ on converge puntualmente a la variable aleatoria  0 si ω ∈ [0, 1), X(ω) = 1 si ω = 1. 150

La convergencia puntual resulta ser muy fuerte pues se pide la convergencia de la sucesi´ on evaluada en cada uno de los elementos de Ω. Uno puede ser menos estricto y pedir por ejemplo que la convergencia se efect´ ue en todo el espacio Ω excepto en un subconjunto de probabilidad cero. Este tipo de convergencia m´ as relajada se llama ”convergencia casi segura” y se estudia en las siguientes secciones junto con otros tipos de convergencia menos restrictivos.

6.2.

Convergencia casi segura

Definici´ on 39 La sucesi´ on X1 , X2 , . . . converge casi seguramente a X si P {ω ∈ Ω : l´ım Xn (ω) = X(ω)} = 1. n→∞

Por lo tanto, en la convergencia casi segura se permite que para algunos valores de ω la sucesi´ on num´erica X1 (ω), X2 (ω), . . . pueda no converger, sin embargo el subconjunto de Ω en donde esto suceda debe tener probabilic.s. dad cero. Para indicar la convergencia casi segura se escribe Xn −→ X o bien l´ım Xn = X c.s. A menudo se utiliza el t´ermino ”convergencia casi n→∞ dondequiera” o bien ”convergencia casi siempre” para denotar este tipo de convergencia. Observe que omitiendo el argumento ω, la condici´ on para la convergencia casi segura se escribe en la forma m´ as corta P ( l´ım Xn = X) = 1. n→∞

En donde se asume que el conjunto ( l´ım Xn = X) es medible de tal forma n→∞ que aplicar la probabilidad tiene sentido. Veamos un ejemplo. Considere el espacio de probabilidad ([0, 1], B[0, 1], P ) con P la medida uniforme, es decir, P (a, b) = b − a. Defina la sucesi´ on de variables aleatorias  1 si 0 ≤ ω ≤ 1/n, Xn (ω) = 0 otro caso. Entonces Xn converge casi seguramente a la variable aleatoria constante cero. Para demostrar esto se necesita verificar que P (l´ımn→∞ Xn = 0) = 1. Pero esta igualdad es evidente a partir del hecho de que {ω ∈ Ω : l´ım Xn (ω) = 0} = (0, 1] n→∞

cuya probabilidad es uno. El punto ω = 0 es el u ´nico punto muestral para c.s. el cual Xn (ω) no converge a cero. Esto demuestra que Xn −→ 0. 151

EJERCICIOS c.s.

459. Sean a y b constantes. Demuestre que si Xn −→ X entonces c.s.

a) aXn −→ aX. c.s.

b) Xn + b −→ X + b. c.s.

c.s.

460. Suponga que Xn −→ X y Yn −→ Y . Demuestre que c.s.

a) Xn + Yn −→ X + Y. c.s.

b) Xn Yn −→ XY. c.s.

c) Xn /Yn −→ X/Y si Y, Yn 6= 0.

461. Considere el espacio de probabilidad ([0, 1], B[0, 1], P ) con P la medida de probabilidad uniforme. Demuestre que c.s.

n1[0,1/n) −→ 0.

6.3.

Convergencia en probabilidad

Definici´ on 40 La sucesi´ on X1 , X2 , . . . converge en probabilidad a X si para cada ǫ > 0 l´ım P {ω ∈ Ω : |Xn (ω) − X(ω)| > ǫ} = 0. n→∞

p

Para denotar la convergencia en probabilidad se escribe Xn −→ X, y omitiendo el argumento ω la condici´ on se escribe l´ım P (|Xn − X| > ǫ) = 0.

n→∞

M´ as adelante se demostrar´ a que la convergencia en probabilidad es un tipo de convergencia a´ un m´ as relajada que la convergencia casi segura.

EJERCICIOS p

462. Sean a y b constantes. Demuestre que si Xn −→ X entonces p

a) aXn −→ aX. p

b) Xn + b −→ X + b. p

p

umeros 463. Suponga que Xn −→ x y Yn −→ y, en donde x y y son dos n´ reales fijos. Demuestre que p

a) Xn + Yn −→ x + y. 152

p

b) Xn Yn −→ xy. p

c) Xn /Yn −→ x/y si Yn , y 6= 0.

p

d ) Si g es continua en x entonces g(Xn ) −→ g(x). p

p

464. Demuestre que si Xn −→ X y Yn −→ Y entonces p

Xn + Yn −→ X + Y. 465. Sean X1 , X2 , . . . variables aleatorias independientes cada una con distribuci´ on unif(a, b). Demuestre que cuando n tiende a infinito p

a) m´ın{X1 , . . . , Xn } −→ a. p

b) m´ ax{X1 , . . . , Xn } −→ b.

6.4.

Convergencia en media

Definici´ on 41 La sucesi´ on X1 , X2 , . . . converge en media a X si l´ım E|Xn − X| = 0.

n→∞

Observe que para este tipo de convergencia tanto los elementos de la sucesi´ on como el l´ımite mismo deben ser variables aleatorias con esperanza finita. A este tipo de convergencia tambi´en se le llama ”convergencia en L1 ” y se le L1

m

denota por Xn −→ X o Xn −→ X. EJERCICIOS m

466. Sean a y b constantes. Demuestre que si Xn −→ X entonces m

a) aXn −→ aX. m b) Xn + b −→ X + b.

m

m

467. Suponga que Xn −→ X y Yn −→ Y . Demuestre que m

a) Xn + Yn −→ X + Y . Proporcione un contraejemplo para las siguientes afirmaciones m

b) Xn Yn −→ XY . m c) Xn /Yn −→ X/Y si Y, Yn 6= 0.

m

468. Use la desigualdad de Cauchy-Schwarz para demostrar que si Xn −→ X entonces l´ım E(Xn ) = E(X). n→∞

153

6.5.

Convergencia en media cuadr´ atica

Definici´ on 42 La sucesi´ on X1 , X2 , . . . converge en media cuadr´ atica a X si l´ım E|Xn − X|2 = 0. n→∞

En la convergencia en media cuadr´ atica se asume que tanto los elementos de la sucesi´ on como el l´ımite mismo son variables aleatorias con segundo momento finito. A este tipo de convergencia tambi´en se le llama ”convergencia L2

m.c.

en L2 ” y se le denota por Xn −→ X o Xn −→ X. EJERCICIOS m.c.

469. Sean a y b constantes. Demuestre que si Xn −→ X entonces m.c.

a) aXn −→ aX. m.c.

b) Xn + b −→ X + b.

m.c.

470. Use la desigualdad de Cauchy-Schwarz para demostrar que si Xn −→ m.c. X y Yn −→ Y entonces m.c.

Xn + Yn −→ X + Y.

6.6.

Convergencia en distribuci´ on

Definici´ on 43 La sucesi´ on X1 , X2 , . . . converge en distribuci´ on a X si l´ım FXn (x) = FX (x)

n→∞

para todo punto x en donde FX (x) es continua.

d

En este caso se escribe Xn −→ X. A este tipo de convergencia se le conoce tambi´en con el nombre de ”convergencia d´ebil” y ello se debe a que esta forma de convergencia es la menos restrictiva de todas las mencionadas anteriormente. Por ejemplo considere la sucesi´ on X1 , X2 , . . . en donde Xn tiene distribuci´ on

154

d

N(0, σ 2 /n). Demostraremos que Xn −→ 0. Como Z x 1 2 2 e−u /2(σ /n) du, FXn (x) = p 2 2πσ /n −∞ entonces

 si x < 0,  0 1/2 si x = 0, l´ım FXn (x) = n→∞  1 si x > 0.

Por otro lado, la variable aleatoria constante X = 0 tiene funci´ on de distribuci´ on  0 si x < 0, FX (x) = 1 si x ≥ 0. d

Tenemos entonces que Xn −→ 0 pues l´ım FXn (x) = FX (x) para todo punto n→∞

x donde FX (x) es continua, esto es, para todo x en el conjunto R \ {0}. Observe que no hay convergencia de las funciones FXn (x) en el punto de discontinuidad x = 0. En resumen tenemos la siguiente tabla con las definiciones de los distintos tipos de convergencia mencionados.

Convergencia

Definici´ on

Puntual

Xn (ω) → X(ω) para cada ω en Ω

Casi segura

P (Xn → X) = 1

En media

E|Xn − X| → 0

En media cuadr´ atica

E|Xn − X|2 → 0.

En probabilidad

P (|Xn − X| > ǫ} → 0

En distribuci´ on

FXn (x) → FX (x) en puntos de continuidad x de FX

EJERCICIOS 471. Considere el espacio de probabilidad ([0, 1], B[0, 1], P ) en donde P es la medida de probabilidad uniforme. Sea Xn = 1[0,1/2+1/n) y X = 1[1/2,1] . d

Demuestre que Xn −→ X. 472. Sea Xn con distribuci´ on unif[1/2 − 1/n, 1/2 + 1/n]. Demuestre que d 1 Xn −→ . 2

155

473. Sea Xn con distribuci´ on unif{0, 1, . . . , n}. Demuestre que 1 d Xn −→ unif[0, 1]. n 474. Sea c una constante. Demuestre que p

Xn −→ c

6.7.

⇐⇒

d

Xn −→ c.

Relaciones generales entre los tipos de convergencia

En esta secci´ on se establecen las relaciones entre los distintos tipos de convergencia de variables aleatorias vistos en la secci´ on anterior. En la figura 6.1 se ilustran de manera gr´ afica estas relaciones. En esta gr´ afica la contenci´ on se interpreta como implicaci´ on, por ejemplo la convergencia casi segura implica la convergencia en probabilidad y ´esta a su vez implica la convergencia ´ en distribuci´ on. Estos y otros resultados se demuestran a continuaci´ on.

Figura 6.1: Relaci´on entre los tipos de convergencia.

Proposici´ on 61 Convergencia c.s. =⇒ convergencia en prob.

c.s.

Demostraci´ on. Suponga Xn −→ X. Sea ǫ > 0 y defina los eventos An =

∞ [

(|Xk − X| > ǫ).

k=n

Esta sucesi´ on es decreciente y su l´ımite es entonces la intersecci´ on de todos los eventos. Como (|Xn − X| > ǫ) ⊆ An entonces P (|Xn − X| > ǫ) ≤ P (An ). 156

Por lo tanto l´ım P (|Xn − X| > ǫ) ≤

n→∞

l´ım P (An )

n→∞

= P ( l´ım An ) n→∞ ∞ \

= P(

An )

n=1

= P (|Xn − X| > ǫ para cada n ≥ 1 )

= P ( l´ım Xn 6= X) n→∞

= 0.

 El rec´ıproco de la proposici´ on anterior es falso, es decir, la convergencia en probabilidad no implica necesariamente la convergencia casi siempre. Para ilustrar esta afirmaci´ on se proporciona a continuaci´ on un contraejemplo. Convergencia en prob. =⇒ 6 Convergencia c.s. Considere el espacio ((0, 1), B(0, 1), P ) con P la medida de probabilidad uniforme. Defina los eventos A1 = (0, 1/2), A2 = (1/2, 1), A3 = (0, 1/3), A4 = (1/3, 2/3), A5 = (2/3, 1), A6 = (0, 1/4), A7 = (1/4, 2/4), A8 = (2/4, 3/4), A9 = (3/4, 1), ······ p

Sea Xn = 1An . Entonces Xn −→ 0 pues para cualquier ǫ tal que 0 < ǫ < 1 l´ım P (|Xn − 0| > ǫ) = l´ım P (An ) = 0.

n→∞

n→∞

Sin embargo la sucesi´ on no converge casi seguramente pues {w ∈ Ω : l´ım Xn (w) existe } = ∅. n→∞

Convergencia en m. =⇒ 6 Convergencia c.s. Considere la sucesi´ on de variables m Xn como en el ejemplo anterior. Entonces Xn −→ 0 pues E|Xn −0| = 1/n → 0. Sin embargo esta sucesi´ on no converge c.s. pues P (l´ım Xn = 0) = P (∅) = 0. Convergencia c.s. =⇒ 6 convergencia en m. Considere el espacio ((0, 1), B(0, 1), P ) con P la medida de probabilidad uniforme. Defina la suceci´ on Xn = n1(0,1/n) . Entonces Xn converge a 0 c.s. pues P (l´ım Xn = 0) = P (Ω) = 1. Sin embargo no hay convergencia en media pues E|Xn − 0| = 1. Proposici´ on 62 Convergencia en m.c. =⇒ convergencia en media.

157

Demostraci´ on. La desigualdad de Jensen establece que para u convexa u(E(X)) ≤ E(u(X)). Tomando u(x) = x2 se obtiene E 2 |Xn − X| ≤ E|Xn − X|2 , de donde se sigue el resultado. Alternativamente la u ´ltima desigualdad es consecuencia de la desigualdad de Cauchy-Schwarz. 

Proposici´ on 63 Convergencia en media =⇒ convergencia en prob.

Demostraci´ on. Para cualquier ǫ > 0 sea An = (|Xn − X| > ǫ). E|Xn − X| = E(|Xn − X| · 1An ) + E(|Xn − X| · (1 − 1An )) ≥ E(|Xn − X| · 1An )

≥ ǫP (|Xn − X| > ǫ).

Por hip´ otesis el lado izquierdo tiende a cero cuando n tiende a infinito. Por lo tanto l´ım P (|Xn − X| > ǫ) = 0. n→∞



Proposici´ on 64 Convergencia en prob. =⇒ convergencia en dist.

Demostraci´ on. Sea x un punto de continuidad de FX (x). Para cualquier ǫ>0 FXn (x) = P (Xn ≤ x)

= P (Xn ≤ x, |Xn − X| ≤ ǫ) + P (Xn ≤ x, |Xn − X| > ǫ) ≤ P (X ≤ x + ǫ) + P (|Xn − X| > ǫ).

El segundo sumando del lado derecho tiende a cero cuando n tiende a infinito p pues por hip´ otesis Xn −→ X. Entonces para cualquier ǫ > 0, l´ım sup FXn (x) ≤ FX (x + ǫ). n→∞

Por la continuidad lateral, l´ım sup FXn (x) ≤ FX (x). n→∞

158

Ahora se demuestra la desigualdad inversa. Para cualquier ǫ > 0 FX (x − ǫ) = P (X ≤ x − ǫ)

= P (X ≤ x − ǫ, |Xn − X| ≤ ǫ) + P (X ≤ x − ǫ, |Xn − X| > ǫ) ≤ P (Xn ≤ x) + P (|Xn − X| > ǫ).

Nuevamente el segundo sumando tiende a cero cuando n tiende a infinito. Entonces FX (x − ǫ) ≤ l´ım inf FXn (x). n→∞

Por la continuidad en x, FX (x) ≤ l´ım inf FXn (x). n→∞

En resumen FX (x) ≤ l´ım inf FXn (x) ≤ l´ım sup FXn (x) ≤ FX (x). n→∞

n→∞

 El converso de la proposici´ on anterior es falso, es decir, la convergencia en distribuci´ on no siempre implica la convergencia en probabilidad. Convergencia en dist. =⇒ 6 convergencia en prob. Sea X con distribuci´ on N(0, 1) y sea  X si n es par, Xn = −X si n es impar. Entonces claramente cada Xn tambi´en tiene distribuci´ on N(0, 1) y por lo d

tanto l´ım FXn (x) = FX (x), es decir, Xn −→ X. Sin embargo la sucesi´ on n→∞ no converge en probabilidad a X pues para valores impares de n, P (|Xn − X| > ǫ) = P (2|X| > ǫ)

> 1/2 para ǫ peque˜ na.

Lo anterior demuestra que l´ım P (|Xn − X| > ǫ) 6= 0. n→∞

EJERCICIOS 475. Enuncie con precisi´ on la definici´ on de convergencia de variables aleatorias: casi segura, en media, en media cuadr´ atica, en probabilidad, en distribuci´ on. 476. Establezca las relaciones existentes entre los siguientes tipos de convergencia de variables aleatorias: convergencia en distribuci´ on, en probabilidad, convergencia casi segura, convergencia en media y convergencia en media cuadr´ atica.

159

477. Demuestre que la convergencia casi siempre implica la convergencia en probabilidad. 478. Demuestre que la convergencia en media cuadr´ atica implica la convergencia en media. 479. Demuestre que la convergencia en media cuadr´ atica implica la convergencia en probabilidad. 480. Demuestre que la convergencia en probabilidad implica la convergencia en distribuci´ on. 481. Sea A1 , A2 , . . . una sucesi´ on de eventos tal que l´ım An = A. ¿En n→∞ qu´e sentido la sucesi´ on de variables aleatorias 1An converge a 1A ? d

d

482. Demuestre que si Xn −→ X y Yn −→ Y entonces no necesariamente d

a) cXn −→ cX, c constante. d

b) Xn + Yn −→ X + Y . 483. Sea Xn con distribuci´ on N(µn , σn2 ) y X con distribuci´ on N(µ, σ 2 ). Suponga µn → µ y σn2 → σ 2 , con σn2 , σ 2 > 0. ¿En qu´e sentido Xn → X? d

484. Suponga Xn −→ X en donde Xn y X son variables aleatorias absolutamente continuas. ¿Bajo qu´e condiciones fXn (x) → fX (x)?

6.8.

Dos resultados importantes de convergencia

Sea X1 , X2 , . . . una sucesi´ on de variables aleatorias con esperanza finita. Suponga que Xn converge puntualmente a X. Es natural preguntarse si la sucesi´ on de n´ umeros E(Xn ) converge a E(X). Tal convergencia num´erica equivaldr´ıa a poder intercambiar las operaciones de l´ımite y esperanza. En esta secci´ on se enuncian sin demostraci´ on dos resultados que establecen condiciones bajo las cuales se cumple que E(Xn ) converge a E(X). Teorema 3 (Teorema de convergencia mon´ otona) Si Xn converge puntualmente a X y es tal que 0 ≤ X1 ≤ X2 ≤ · · · entonces l´ım E(Xn ) = E(X).

n→∞

Por lo tanto la condici´ on de que la sucesi´ on de variables aleatorias sea mon´ otona no decreciente es suficiente para poder afirmar que E(Xn ) converge a E(X). El segundo resultado que se enuncia a continuaci´ on establece otro tipo de condici´ on suficiente para obtener la misma conclusi´ on.

160

Teorema 4 (Teorema de convergencia dominada) Si Xn converge puntualmente a X y existe Y con esperanza finita tal que |Xn | ≤ Y para toda n, entonces l´ım E(Xn ) = E(X). n→∞

Es decir, es suficiente que exista una variable aleatoria con esperanza finita que sea cota superior de la sucesi´ on para poder afirmar que E(Xn ) converge a E(X). Estos dos resultados son de suma utilidad y su demostraci´ on aparece en textos avanzados de probabilidad [11], [16], [21]. Se utilizan en la u ´ltima parte de este curso para formalizar algunas demostraciones.

161

Cap´ıtulo 7

Funciones generadoras En este cap´ıtulo se estudia la funci´ on generadora de probabilidad, la funci´ on generadora de momentos y la funci´ on caracter´ıstica. Estas funciones son transformaciones de las distribuciones de probabilidad y constituyen una herramienta muy u ´til en la teor´ıa moderna de la probabilidad.

7.1.

Funci´ on generadora de probabilidad

Definici´ on 44 La funci´ on generadora de probabilidad de X es la funci´ on G(t) = E(tX ) definida para valores reales de t tal que la esperanza existe.

Cuando sea necesario especificarlo se escribe GX (t) en lugar de G(t) y se usan las letras f.g.p. en lugar de ”funci´ on generadora de probabilidad”. Esta funci´ on se utiliza principalmente en el caso de variables aleatorias discretas, por comodidad supondremos que ´estas toman valores en el conjunto {0, 1, . . .} que corresponde al caso de las variables aleatorias discretas estudiadas en este curso. Entonces G(t) =

∞ X

tk P (X = k).

k=0

Por lo tanto la f.g.p. es una serie de potencias en t con coeficientes dados por la distribuci´ on de probabilidad (por ende el nombre) y cuyo radio de convergencia es por lo menos uno. La existencia de la f.g.p. no est´ a garantizada para toda distribuci´ on de probabilidad. Sin embargo cuando existe, determina de manera u ´nica a la dis162

tribuci´ on en el siguiente sentido. Si X y Y tienen la misma distribuci´ on de probabilidad entonces claramente GX (t) = GY (t) para valores de t donde esta esperanza exista. Inversamente, sean X y Y tales que GX (t) y GX (t) existen y coinciden en alg´ un intervalo no trivial alrededor del cero. Entonces X y Y tienen la misma distribuci´ on de probabilidad. ´ Esta y otras propiedades generales de la f.g.p. se estudian a continuaci´ on y m´ as adelante se ilustran estos resultados con un ejemplo.

Proposici´ on 65 1. Sean X y Y variables aleatorias con valores en {0, 1, . . .} tales que GX (t) y GY (t) existen y coinciden en alg´ un intervalo no trivial alrededor de t = 0. Entonces X y Y tienen la misma distribuci´ on de probabilidad. 2. Si GX (t) existe entonces dn G (t) = E[X(X − 1) · · · (X − n + 1)]. X dtn t=1

3. Si X y Y son independientes y cuyas f.g.p. existen entonces GX+Y (t) = GX (t)GY (t).

Demostraci´ on. (1) Sean an = P (X = n) y bn = P (Y = n) para n ≥ 0. La condici´ on GX (t) y GX (t) se escribe ∞ X

n

t an =

∞ X

tn bn .

n=0

n=0

Para que estas dos series de potencias en t coincidan en alg´ un intervalo no trivial alrededor del cero, sus coeficientes deben forzosamente coincidir. Es decir an = bn para n ≥ 0. (2) Como las series de potencia se pueden derivar t´ermino a t´ermino conserv´ andose el mismo radio de convergencia se tiene que ′

G (t) =



d X k t P (X = k) dt k=0

∞ X d k = t P (X = k) dt k=0

=

∞ X

ktk−1 P (X = k).

k=1

163

Al evaluar en t = 1 se obtiene G′ (1) =

∞ X

kP (X = k) = E(X).

k=1

De manera an´ aloga se demuestra para las derivadas superiores. (3) Cuando X y Y son independientes, GX+Y (t) = E(tX+Y ) = E(tX tY ) = E(tX )E(tY ) = GX (t)GY (t).  Ejemplo 15 Sea X con distribuci´ on Poisson(λ). Entonces la f.g.p. de X es G(t) = e−λ(1−t) . En efecto, G(t) =

∞ X

tn e−λ

n=0

= e−λ

∞ X (λt)n

n!

n=0 −λ λt

= e

e

−λ(1−t)

= e

λn n!

.

Observe que en este caso la f.g.p. se encuentra definida para cualquier valor de t. Calculamos a continuaci´ on la esperanza y varianza de la distribuci´ on Poisson(λ) con ayuda de la f.g.p. Al derivar una vez se obtiene G′ (t) = λe−λ(1−t) y al evaluar en t = 1, E(X) = G′ (1) = λ. Derivando por segunda vez, G′′ (t) = λ2 e−λ(1−t) , y en t = 1 se obtiene E(X(X − 1)) = G′′ (1) = λ2 . Por lo tanto Var(X) = E(X 2 ) − E 2 (X) = λ2 + λ − λ2 = λ. Ahora se muestra el uso de la f.g.p. para determinar la distribuci´ on de una variable aleatoria. Suponga que X y Y son independientes con distribuci´ on Poisson(λ1 ) y Poisson(λ2 ) respectivamente. Entonces MX+Y (t) = MX (t)MY (t) = e−λ1 (1−t) e−λ2 (1−t) = e−(λ1 +λ2 )(1−t) . Esta expresi´ on corresponde a la f.g.p. de la distribuci´ on Poisson con par´ ametro λ1 + λ2 . Se concluye entonces que X + Y se distribuye Poisson(λ1 + λ2 ). Las funciones generadoras de probabilidad para algunas otras distribuciones discretas se encuentran en la secci´ on de ejercicios y tambi´en en el primer ap´endice al final del libro. 164

EJERCICIOS 485. Sea X con varianza finita y con f.g.p. G(t). Demuestre que a) E(X) = G′ (1). b) E(X 2 ) = G′′ (1) + G′ (1). c) Var(X) = G′′ (1) + G′ (1) − [G′ (1)]2 . 486. Sea X con f.g.p. GX (t) y sean a y b dos constantes. Demuestre que GaX+b (t) = tb GX (ta ). 487. Sea X con distribuci´ on Ber(p). Demuestre que a) G(t) = 1 − p + pt.

b) E(X) = p usando G(t). c) Var(X) = p(1 − p) usando G(t).

488. Sea X con distribuci´ on bin(n, p). Demuestre que a) G(t) = (1 − p + pt)n .

b) E(X) = np usando G(t). c) Var(X) = np(1 − p) usando G(t).

489. Sean X1 , . . . , Xn independientes cada una con distribuci´ on Ber(p). Use la f.g.p. para demostrar que X1 + · · · + Xn tiene distribuci´ on bin(n, p). 490. Sean X y Y independientes con distribuci´ on bin(n, p) y bin(m, p) respectivamente. Use la f.g.p. para demostrar que X + Y tiene distribuci´ on bin(n + m, p). 491. Sea X con distribuci´ on bin(N, p) en donde N es una v.a. con distribuci´ on bin(m, r). Use la f.g.p. para demostrar que X tiene distribuci´ on bin(m, rp). 492. Sea X con distribuci´ on geo(p). Demuestre que a) G(t) = p/[1 − t(1 − p)].

b) E(X) = (1 − p)/p usando G(t).

c) Var(X) = (1 − p)/p2 usando G(t).

493. Sea X con distribuci´ on Poisson(λ). Demuestre que a) G(t) = e−λ(1−t) . b) E(X) = λ usando G(t). c) Var(X) = λ usando G(t). 494. Sean X y Y independientes con distribuci´ on Poisson con par´ ametros λ1 y λ2 respectivamente. Use la f.g.p. para demostrar nuevamente que X + Y tiene distribuci´ on Poisson(λ1 + λ2 ).

165

495. Sea X con distribuci´ on bin neg(r, p). Demuestre que a) G(t) = [p/(1 − t(1 − p))]r .

b) E(X) = r(1 − p)/p usando G(t).

c) Var(X) = r(1 − p)/p2 usando G(t).

496. Sean X1 , . . . , Xn independientes tales que Xk tiene f.g.p. Gk (t) para k = 1, . . . , n. Demuestre que GX1 +···+Xn (t) =

n Y

Gk (t).

k=1

497. Demuestre que la condici´ on GX+Y (t) = GX (t)GY (t) no implica que X y Y son independientes. 498. Sea X1 , X2 , . . . una sucesi´ on de v.a.i.i.d. con f.g.p. GX (t). Sea N otra v.a. con valores en N, independiente de la sucesi´ on y con f.g.p. GN (t). Sea Y = X1 + · · · + X N . Demuestre que a) GY (t) = GN (GX (t)). b) E(Y ) = E(N )E(X) usando GY (t). c) Var(Y ) = E 2 (X)Var(N ) + E(N )Var(X) usando GY (t).

7.2.

Funci´ on generadora de momentos

La funci´ on generadora de momentos es otra funci´ on que se puede asociar a algunas distribuciones de probabilidad aunque su existencia no est´ a garantizada para todas las distribuciones. Cuando existe, determina de manera u ´nica a la distribuci´ on de probabilidad asociada y tiene propiedades semejantes a las de la f.g.p. estudiada en la secci´ on anterior. La funci´ on generadora de momentos se utiliza tanto para variables aleatorias discretas como continuas.

Definici´ on 45 La funci´ on generadora de momentos de X es la funci´ on M (t) = E(etX ) definida para valores reales de t para los cuales esta esperanza existe.

Nuevamente, cuando sea necesario especificarlo se escribe MX (t) en lugar de M (t) y se usan las letras f.g.m. en lugar de ”funci´ on generadora de momentos”. La parte importante de esta funci´ on es su existencia en una vecindad 166

no trivial alrededor del cero. Observe que la f.g.m. y la f.g.p. est´ an relacionadas, cuando existen, por la igualdad M (t) = G(et ). Se demuestran a continuaci´ on algunas propiedades b´ asicas de la f.g.m. y despu´es se muestra su utilidad mediante un ejemplo.

Proposici´ on 66 1. Sea X tal que su f.g.m. M (t) existe. Entonces todos los momentos X existen y dn M (t) = E(X n ). n dt t=0 2. Sean X y Y son independientes y cuyas f.g.m. existen. Entonces MX+Y (t) = MX (t)MY (t). 3. Las variables X y Y tienen la misma distribuci´ on si y solo si MX (t) = MY (t) para cada t ∈ (−ǫ, ǫ) con ǫ > 0 .

Demostraci´ on. (1) El teorema de convergencia dominada permite obtener la derivada a trav´es de la esperanza de modo que d E(etX ) dt d = E( etX ) dt = E(XetX ).

d M (t) = dt

Al evaluar en t = 0 se obtiene el primer momento. An´ alogamente se prueba para derivadas superiores. (2) Cuando X y Y son independientes se tiene que MX+Y (t) = E(et(X+Y ) ) = E(etX · etY )

= E(etX )E(etY ) = MX (t)MY (t) (3) Si X es tal que su funci´ on generadora de momentos existe entonces todos sus momentos existen y ´estos determinan de manera u ´nica a la distribuci´ on de probabilidad.  Ejemplo 16 Sea X con distribuci´ on gama(n, λ). Entonces para t < λ, Z ∞ (λx)n−1 M (t) = etx λe−λx dx Γ(n) 0 Z ∞ [(λ − t)x]n−1 n −n (λ − t)e−(λ−t)x dx = λ (λ − t) Γ(n) 0 167

= λn (λ − t)−n . Calculamos ahora la esperanza y varianza de X con ayuda de la f.g.m. Derivando una vez, M ′ (t) = λn n(λ − t)−n−1 , al evaluar en t = 0 se obtiene E(X) = n/λ. Derivando nuevamente, M ′′ (t) = λn n(n + 1)(λ − t)−n−2 , por lo tanto E(X 2 ) = M ′′ (0) = n(n + 1)/λ2 . Entonces Var(X) = n(n + 1)/λ2 − n2 /λ2 = n/λ2 . Suponga que X y Y son independientes cada una con distribuci´ on gama(n, λ) y gama(m, λ) respectivamente. Entonces la f.g.m. de X + Y es MX+Y (t) = MX (t)MY (t) = λn (λ − t)−n · λm (λ − t)−m

= λn+m (λ − t)−n−m .

´ Esta es nuevamente la expresi´ on de la f.g.m. de la distribuci´ on gama, ahora con par´ ametros n + m y λ. Se concluye entonces X + Y tiene distribuci´ on gama(n + m, λ). Como hemos mencionado antes, no todas las distribuciones de probabilidad permiten calcular la funci´ on generadora de momentos dentro de un intervalo alrededor del cero, ni todos los c´ alculos son tan sencillos como en el ejemplo mostrado. Por ejemplo la f.g.m. de la distribuci´ on Cauchy est´ andar no existe para valores de t distintos de cero como se pide demostrar en el ejercicio 522. Finalizamos esta secci´ on con el enunciado sin demostraci´on de un resultado acerca de convergencia de funciones generadoras.

Proposici´ on 67 Sea X1 , X2 , . . . una sucesi´ on de variables aleatorias cuyas funciones generadoras de momentos existen todas ellas en alg´ un intervalo no d trivial alrededor del cero. Entonces Xn → X si y solo si MXn (t) → MX (t).

En la secci´ on de ejercicios se pueden encontrar las funciones generadoras de momentos de algunas otras distribuciones discretas y continuas, asi como en el primer ap´endice al final del libro.

EJERCICIOS 499. Sea X con varianza finita y con f.g.m. M (t). Demuestre que a) E(X) = M ′ (0). b) E(X 2 ) = M ′′ (0). c) Var(X) = M ′′ (0) − (M ′ (0))2 . 168

500. Sean X y Y independientes e id´enticamente distribuidas con f.g.m. M (t). Demuestre que MX−Y (t) = M (t)M (−t). 501. Sea X con f.g.m. MX (t) y sean a y b dos constantes. Demuestre que MaX+b (t) = etb MX (at). 502. Sea X con f.g.m. MX (t). Diga falso o verdadero. Demuestre en cada caso. a) MX (t) ≥ 0.

b) M2X (t) = MX (2t).

503. Sea X con distribuci´ on Ber(p). Demuestre que a) M (t) = 1 − p + pet .

b) E(X) = p usando M (t). c) E(X n ) = p usando M (t).

d ) Var(X) = p(1 − p) usando M (t). 504. Sea X con distribuci´ on bin(n, p). Demuestre que a) M (t) = (1 − p + pet )n .

b) E(X) = np usando M (t). c) Var(X) = np(1 − p) usando M (t).

505. Sean X1 , . . . , Xn independientes cada una con distribuci´ on Ber(p). Use la f.g.m. para demostrar que X1 + · · · + Xn tiene distribuci´ on bin(n, p). 506. Sean X y Y independientes con distribuci´ on bin(n, p) y bin(m, p) respectivamente. Use la f.g.m. para demostrar que X + Y tiene distribuci´ on bin(n + m, p) 507. Sea X con distribuci´ on geo(p). Demuestre que p . 1 − (1 − p)et b) E(X) = (1 − p)/p usando M (t).

a) M (t) =

c) Var(X) = (1 − p)/p2 usando M (t).

508. Sea X con distribuci´ on Poisson(λ). Demuestre que a) M (t) = exp[λ(et − 1)].

b) M ′′ (t) = M ′ (t) + λet M ′ (t). c) E(X) = λ usando M (t).

d ) Var(X) = λ usando M (t). e) E[(X − λ)3 ] = λ usando M (t). 509. Sea X con distribuci´ on unif(a, b). Demuestre que a) M (t) =

ebt − eat . (b − a)t 169

b) E(X) = (a + b)/2 usando M (t). c) Var(X) = (b − a)2 /12 usando M (t). 510. Sea X con distribuci´ on exp(λ). Demuestre que a) M (t) = λ/(λ − t) para t < λ. b) E(X) = 1/λ usando M (t).

c) Var(X) = 1/λ2 usando M (t). 511. Sea X con distribuci´ on N(µ, σ 2 ). Demuestre que a) M (t) = exp(µt + 21 σ 2 t2 ). b) E(X) = µ usando M (t). c) Var(X) = σ 2 usando M (t). 512. Sean X y Y variables aleatorias independientes con distribuci´ on N(µ1 , σ12 ) 2 y N(µ2 , σ2 ) respectivamente. Use la f.g.m. para demostrar que X + Y tiene distribuci´ on N(µ1 + µ2 , σ12 + σ22 ). 513. Sea X con distribuci´ on gama(n, λ). Demuestre que a) M (t) = [λ/(λ − t)]n para t < λ. b) E(X) = n/λ usando M (t).

c) Var(X) = n/λ2 usando M (t). 514. Sean X y Y independientes ambas con distribuci´ on exp(λ). Use la f.g.m. para demostrar que X + Y tiene distribuci´ on gama(2, λ). 515. Sean X y Y independientes con distribuci´ on gama(n, λ) y gama(m, λ) respectivamente. Use la f.g.m. para demostrar que X + Y tiene distribuci´ on gama(n + mλ). 516. Sea X con distribuci´ on χ2 (n). Demuestre que a) M (t) = [1/(1 − 2t)]n/2 para t < 1/2. b) E(X) = n usando M (t).

c) Var(X) = 2n usando M (t). 517. Use la f.g.m. para demostrar que si X y Y son independientes tales que X tiene distribuci´ on χ2 (n) y X + Y tiene distribuci´ on χ2 (m) con m > n, entonces Y tiene distribuci´ on χ2 (m − n). Este es el contenido de la proposici´ on 50 en la p´ agina 134. 518. Sean X y Y independientes con distribuci´ on χ2 (n) y χ2 (m) respectivamente. Use la f.g.m. para demostrar que X + Y tiene distribuci´ on χ2 (n + m). 519. Sea X con distribuci´ on N(µ, σ 2 ). Use la f.g.m. para demostrar que a) −X tiene distribuci´ on N(−µ, σ 2 ). 170

b) aX + b tiene distribuci´ on N(aµ + b, a2 σ 2 ) con a 6= 0. c) X 2 tiene distribuci´ on χ2 (1).

520. Sean X1 , . . . , Xn independientes tales que Xk tiene f.g.m. Mk (t) para k = 1, . . . , n. Demuestre que MX1 +···+Xn (t) =

n Y

Mk (t).

k=1

521. Demuestre que la condici´ on MX+Y (t) = MX (t)MY (t) no implica que X y Y son independientes. Considere la distribuci´ on conjunta 1 f (x, y) = [1 + xy(x2 − y 2 )] para 4

− 1 < x, y < 1.

522. Sea X con distribuci´ on Cauchy est´ andar. Demuestre que  1 si t = 0, MX (t) = ∞ si t 6= 0.

7.3.

Funci´ on caracter´ıstica

Finalmente se estudia en esta secci´ on la funci´ on caracter´ıstica y se enun´ cian algunas de sus propiedades. Esta es una funci´ on definida para cada distribuci´ on de probabilidad y a diferencia de las funciones generadoras de probabilidad y de momentos estudiadas antes, siempre existe. Su definici´ on es la siguiente.

Definici´ on 46 La funci´ on caracter´ıstica de X es la funci´ on  φ(t) = E eitX

definida para cualquier n´ umero real t, en donde i es la unidad de los n´ umeros imaginarios.

Observe que la funci´ on caracter´ıstica es una funci´ on de los n´ umeros reales en los n´ umeros complejos y puede escribirse de la forma siguiente φ(t) = E(cos tX) + iE(sen tX). Nuevamente se escribe φX (t) cuando sea necesario especificar que se trata de la funci´ on caracter´ıstica de X. Se escribe simplemente f.c. en lugar de ”funci´ on caracter´ıstica”. Observe que la f.c., la f.g.m. y la f.g.p. est´ an

171

relacionadas, cuando existen, por las igualdades φ(t) = M (it) = G(eit ). La existencia de la f.c. se sigue del siguiente an´ alisis Z ∞ itx e dF (x) |φ(t)| = Z −∞ ∞ |eitx | dF (x) ≤ Z−∞ ∞ dF (x) = −∞

= 1.

De modo que φ(t) es un n´ umero complejo de norma menor o igual a uno para cualquier valor de t. Los momentos de la variable aleatoria pueden ser generados con la f.c. a trav´es de la f´ ormula φ(n) (0) = in E(X n ), en efecto, por el teorema de convergencia dominada se puede derivar a trav´es de la esperanza y entonces d φ(t) = dt

d E(eitX ) dt  d itX = E e dt

= E(iXeitX ).

Evaluando en t = 0 se obtiene el resultado cuando n = 1. An´ alogamente se calculan las derivadas superiores. Como en las funciones generadoras anteriores, cuando X y Y son independientes se cumple que φX+Y (t) = φX (t)φY (t) pues φX+Y (t) = E(eit(X+Y ) ) = E(eitX · eitY )

= E(eitX )E(eitY ) = φX (t)φY (t). El siguiente resultado permite determinar la funci´ on de distribuci´ on de una variable aleatoria cuando se conoce su funci´ on de distribuci´ on.

Proposici´ on 68 (F´ ormula de inversi´ on de L` evy) Sea X con funci´ on de distribuci´ on F y funci´ on caracter´ıstica φ(t). Si x < y son puntos de continuidad de F entonces Z T −itx e − e−ity 1 φ(t) dt. F (y) − F (x) = l´ım T →∞ 2π −T it

Con ayuda de este teorema de inversi´ on probaremos que las funciones de distribuci´ on determinan de manera u ´nica a las distribuciones de probabilidad. 172

Proposici´ on 69 (Teorema de unicidad) Si X y Y son tales que φX (t) = φY (t) para todo t entonces X y Y tienen la misma distribuci´ on.

Demostraci´ on. Por el teorema de inversi´ on de L`evy, la igualdad φX (t) = φY (t) implica que para cualesquiera dos puntos de continuidad x < y para ambas distribuciones se tiene que FX (y) − FX (x) = FY (y) − FX (x). Al hacer x tender a −∞, se obtiene que FX (y) = FY (y), para todos los valores y puntos de continuidad de ambas funciones de distribuci´ on. Como las funciones de distribuci´ on tienen a lo sumo un n´ umero numerable de discontinuidades, FX = FY .  En el caso absolutamente continuo se tiene la siguiente f´ ormula.

Proposici´ on 70 (F´ ormula de inversi´ on en el caso abs. continuo) Sea X absolutamente continua con funci´ on de densidad f (x) y funci´ on caracter´ıstica φ(t). Entonces Z ∞ 1 e−itx φ(t) dt. f (x) = 2π −∞

Demostraci´ on. Para x < y dos puntos de continuidad de F , por el teorema de inversi´ on de L`evy, Z T −itx e − e−ity 1 F (y) − F (x) = l´ım φ(t) dt T →∞ 2π −T it Z ∞ −itx e − e−ity 1 φ(t) dt = 2π −∞ it  Z ∞ Z y 1 −itx = e dx φ(t) dt. 2π −∞ x  Z y Z ∞ 1 −itx = e φ(t) dt dx. 2π −∞ x Por lo tanto el integrando debe ser la funci´ on de densidad de X.



Observe que se puede utilizar la f´ ormula de inversi´ on anterior u ´nicamente cuando se conoce que la funci´ on caracter´ıstica proviene de una variable aleatoria absolutamente continua. Ahora se demuestra un resultado que ser´ a de utilidad en la u ´ltima parte del curso. Establece que la convergencia en distribuci´ on es equivalente a la convergencia puntual de las correspondientes funciones caracter´ısticas. 173

Proposici´ on 71 (Teorema de Continuidad) Sean X, X1 , X2 , . . . varid

ables aleatorias. Entonces Xn → X si y solo si φXn (t) → φX (t).

Demostraci´ on. d

(⇒) Suponga Xn → X. Entonces por el teorema de convergencia dominada, l´ım φXn (t) =

n→∞

l´ım E(cos tXn ) + iE(sen tXn )

n→∞

= E(cos tX) + iE(sen tX) = φX (t). (⇐) Suponga φXn (t) → φX (t). Entonces para dos puntos de continuidad x < y comunes a cada FXn y FX , el teorema de inversi´ on de L`evy establece que Z

T

e−itx − e−ity φ(t) dt. it −T Z T −itx i e − e−ity h 1 l´ım φXn (t) dt. = l´ım n→∞ T →∞ 2π −T it Z T −itx −ity e −e 1 [φXn (t)] dt. = l´ım l´ım n→∞ T →∞ 2π −T it = l´ım FXn (y) − FXn (x).

1 FX (y) − FX (x) = l´ım T →∞ 2π

n→∞

Haciendo x tender a −∞, FX (y) = l´ım FXn (y). n→∞

 Finalmente se muestra con ejemplos la forma de encontrar la funci´ on caracter´ıstica para algunas distribuciones. Ejemplo 17 Sea X con distribuci´ on bin(n, p). Encontraremos la funci´ on caracter´ıstica de X.   n X n φ(t) = px (1 − p)n−x eitx x x=0  n  X n (peit )x (1 − p)n−x = x x=0

= (1 − p + peit )n .

174

Ejemplo 18 Sea X con distribuci´ on N(µ, σ 2 ). Entonces la funci´ on caracter´ıstica de X se calcula como sigue, Z ∞ 1 2 2 φ(t) = eitx · √ e−(x−µ) /2σ dx 2 2πσ Z−∞ ∞ 1 2 2 2 2 √ e−(x −2x(µ−itσ )+µ )/2σ dx = 2πσ 2 −∞ Z ∞ 1 2 2 2 (−µ2 +(µ−itσ 2 )2 )/2σ 2 √ = e e−[x−(µ−itσ )] /2σ dx 2 −∞ {z } | 2πσ N (µ−itσ 2 ,σ 2 )

2 σ 2 /2

= eitµ−t

.

EJERCICIOS 523. Defina con precisi´ on la funci´ on caracter´ıstica y mencione tres de sus propiedades. 524. Encuentre la f.c. de una v.a. con funci´ on de densidad a) f (x) =

1 para x = 1, 2, . . . x!(e − 1)

b) f (x) = 12 e−|x| .

525. Demuestre que |φ(t)| ≤ 1. 526. Demuestre que φaX+b (t) = eitb φX (at), con a, b constantes. 527. Demuestre que si x 7→ F (x) es sim´etrica entonces t 7→ φ(t) es real. 528. Demuestre que si t 7→ φ(t) es real entonces x 7→ F (x) es sim´etrica. 529. Demuestre que la funci´ on caracter´ıstica es una funci´ on uniformemente continua. 530. Demuestre que la f.c. satisface φ(−t) = φ(t), en donde z denota el complejo conjugado de z. 531. Sean X y Y independientes y con id´entica distribuci´ on. Demuestre que φX−Y (t) = |φX (t)|2 . 532. Sea X con distribuci´ on Ber(p). Demuestre que a) φ(t) = (1 − p + peit ).

b) E(X) = p usando φ(t). c) Var(X) = p(1 − p) usando φ(t).

d ) E(X n ) = p usando φ(t), n ≥ 1 entero. 533. Sea X con distribuci´ on bin(n, p). Demuestre que 175

a) φ(t) = (1 − p + peit )n .

b) E(X) = np usando φ(t). c) Var(X) = np(1 − p) usando φ(t).

534. Sea X con distribuci´ on Poisson(λ). Demuestre que it

a) φ(t) = e−λ(1−e ) . b) E(X) = λ usando φ(t). c) Var(X) = λ usando φ(t). 535. Sea X con distribuci´ on geo(p). Demuestre que a) φ(t) = p/(1 − qeit ).

b) E(X) = (1 − p)/p usando φ(t).

c) Var(X) = (1 − p)/p2 usando φ(t).

536. Sea X tiene distribuci´ on bin neg(r, p). Demuestre que a) φ(t) = [p/(1 − (1 − p)eit )]r .

b) E(X) = r(1 − p)/p usando φ(t).

c) Var(X) = r(1 − p)/p2 usando φ(t).

537. Sea X con distribuci´ on unif(−a, a). Demuestre que φ(t) = (sen at)/at. 538. Sea X con distribuci´ on unif(a, b). Demuestre que a) φ(t) = [eibt − eiat ]/[it(b − a)].

b) E(X) = (a + b)/2 usando φ(t). c) Var(X) = (b − a)2 /12 usando φ(t).

539. Sea X con distribuci´ on N(µ, σ 2 ). Demuestre que a) φ(t) = exp(iµt − σ 2 t2 /2). b) E(X) = µ usando φ(t).

c) Var(X) = σ 2 usando φ(t). 540. Sea X con distribuci´ on exp(λ). Demuestre que a) φ(t) = λ/(λ − it).

b) E(X) = 1/λ usando φ(t). c) Var(X) = 1/λ2 usando φ(t).

541. Sea X con distribuci´ on gama(n, λ). Demuestre que a) φ(t) = [λ/(λ − it)]n .

b) E(X) = n/λ usando φ(t). c) Var(X) = n/λ2 usando φ(t). 176

542. Sean X y Y independientes ambas con distribuci´ on exp(λ). Use la f.c. para demostrar que X + Y tiene distribuci´ on gama(2, λ). 543. Sean X y Y independientes con distribuci´ on gama(n, λ) y gama(m, λ) respectivamente. Use la f.c. para demostrar que X + Y tiene distribuci´ on gama(n + m, λ). 544. Demuestre que si X y Y son independientes entonces φX+Y (t) = φX (t)φY (t). 545. Demuestre que la condici´ on φX+Y (t) = φX (t)φY (t) no implica que X y Y son independientes considerando por ejemplo la distribuci´ on conjunta 1 f (x, y) = [1 + xy(x2 − y 2 )] para 4

− 1 < x, y < 1.

546. Sea X con funci´ on de distribuci´ on F (x) =

ex . 1 + ex

Demuestre que F (x) es efectivamente una funci´ on de distribuci´ on y calcule φ(t). Con ayuda de ´esta encuentre E(X) y Var(X). 547. Sean X y Y independientes. Demuestre que Z ∞ Z ∞ φXY (t) = φY (tx)dFX (x) = φX (ty)dFY (y). −∞

−∞

548. Mediante el c´ alculo de residuos se puede demostrar que la distribuci´ on Cauchy est´ andar tiene funci´ on caracter´ıstica Z ∞ 1 dx = e−|t| . φ(t) = eitx 2) π(1 + x −∞ Suponiendo este resultado, encuentre el error en el siguiente argumento para encontrar la f.g.m. de la distribuci´ on Cauchy: “Como φ(t) = e−|t| −|−it| y M (t) = φ(−it) entonces M (t) = e = e−|t| .” 549. Sean X1 , . . . , Xn v.a.i.i.d. con distribuci´ on Cauchy est´ andar, es decir, la funci´ on caracter´ıstica de cada una de estas variables es φ(t) = e−|t| . Use este resultado para demostrar que la v.a. Sn = (X1 + · · · + Xn )/n tiene distribuci´ on Cauchy est´ andar para cualquier valor de n.

177

Cap´ıtulo 8

Teoremas l´ımite En este cap´ıtulo estudiamos dos de los teoremas m´ as importantes en probabilidad, la ley de los grandes n´ umeros y el teorema del l´ımite central.

8.1.

Desigualdades de Markov y de Chebyshev

Proposici´ on 72 (Desigualdad de Markov) Sea X ≥ 0 con esperanza finita. Para cualquier ǫ > 0, P (X > ǫ) ≤

E(X) . ǫ

(8.1)

Demostraci´ on. E(X) = E( X · 1(X>ǫ) + X · 1(X≥ǫ) ) ≥ E( X · 1(X>ǫ) ) ≥ E( ǫ · 1(X>ǫ) ) = ǫP (X > ǫ).

 La desigualdad de Markov establece que la probabilidad de que X exceda un valor ǫ est´ a acotada superiormente por la media entre ǫ. Las siguientes desigualdades equivalentes a la demostrada tambi´en se conocen como desigualdades de Markov. Para cualquier ǫ > 0, E|X| . ǫ E|X|n . 2. P (|X| > ǫ) ≤ ǫn

1. P (|X| > ǫ) ≤

178

Figura 8.1: Andrei Andreyevich Markov (Rusia 1856–1922).

Proposici´ on 73 (Desigualdad de Chebyshev) Sea X con media µ y 2 varianza σ < ∞. Para cualquier ǫ > 0, P (|X − µ| > ǫ) ≤

σ2 . ǫ2

(8.2)

Demostraci´ on.   σ 2 = E (X − µ)2   = E (X − µ)2 · 1(|X−µ|>ǫ) + (X − µ)2 · 1(|X−µ|≤ǫ)   ≥ E (X − µ)2 · 1(|X−µ|>ǫ)   ≥ E ǫ2 · 1(|X−µ|>ǫ) = ǫ2 P (|X − µ| > ǫ).

 La desigualdad de Chebyshev dice que la probabilidad de que X difiera de su media en mas de ǫ est´ a acotada superiormente por la varianza entre 2 ǫ . A esta desigualdad tambi´en se le conoce con el nombre de desigualdad de Chebyshev-Bienaym´e. Las siguientes desigualdades son versiones equivalentes de la desigualdad de Chebyshev. Para cualquier ǫ > 0, 1. P (|X − µ| > ǫσ) ≤ 1/ǫ2 . 2. P (|X − µ| ≤ ǫσ) ≥ 1 − 1/ǫ2 . 3. P (|X − µ)| ≤ ǫ) ≥ 1 −

σ2 . ǫ2 179

Figura 8.2: Pafnuty Lvovich Chebyshev (Rusia 1821–1894).

Proposici´ on 74 (Desigualdad de Chebyshev extendida) Sea X una variable aleatoria y sea g ≥ 0 una funci´ on no decreciente tal que g(X) tiene esperanza finita. Para cualquier ǫ > 0, P (X > ǫ) ≤

E[g(X)] . g(ǫ)

(8.3)

Demostraci´ on. E[g(X)] = E[ g(X) · 1(X>ǫ) + g(X) · 1(X≥ǫ) ] ≥ E[ g(X) · 1(X>ǫ) ] ≥ E[ g(ǫ) · 1(X>ǫ) ] = g(ǫ)P (X > ǫ).

 A partir de la desigualdad de Chebyshev extendida y con una funci´ on g adecuada se pueden obtener tanto la desigualdad de Chebyshev como la desigualdad de Markov. En la siguiente secci´ on se usar´ a la desigualdad de Chebyshev para demostrar la ley d´ebil de los grandes n´ umeros.

180

En resumen tenemos la siguiente tabla. Desigualdades de Markov y de Chebyshev 1. Markov: Para ǫ > 0 a) X ≥ 0 =⇒ P (X > ǫ) ≤ E(X)/ǫ b) P (|X| > ǫ) ≤ E|X|/ǫ c) P (|X| > ǫ) ≤ E|X|n /ǫn 2. Chebyshev: Para ǫ > 0 a) P (|X − µ| > ǫ) ≤ Var(X)/ǫ2 b) P (X > ǫ) ≤ E[g(X)]/g(ǫ) con g ≥ 0 no decreciente

EJERCICIOS 550. Enuncie y demuestre la desigualdad de Markov. 551. Demuestre la desigualdad de Markov siguiendo los siguientes pasos. Suponga X ≥ 0. a) Para ǫ > 0 defina Xǫ =



ǫ si X > ǫ, 0 si X ≤ ǫ.

b) Compruebe que Xǫ ≤ X.

c) Tome esperanzas de ambos lados y calcule E(Xǫ ).

552. Demuestre directamente las siguientes versiones de la desigualdad de Markov. Para cualquier ǫ > 0, E|X| . ǫ E|X|n . b) P (|X| > ǫ) ≤ ǫn

a) P (|X| > ǫ) ≤

553. Demuestre que la convergencia en media implica la convergencia en probabilidad usando la desigualdad de Markov aplicada a la variable aleatoria no negativa |Xn − X|. 554. Enuncie y demuestre la desigualdad de Chebyshev. 555. Use la desigualdad de Chebyshev para demostrar directamente que la convergencia en media cuadr´ atica implica la convergencia en probabilidad. 556. Demuestre la desigualdad de Chebyshev (8.2) usando la desigualdad de Markov (8.1) aplicada a la v.a. no negativa |X − µ|.

181

557. Use la desigualdad de Chebyshev para demostrar que si X es una variable aleatoria tal que E(X) = a y E(X 2 ) = 0 entonces X es constante casi seguramente, es decir, P (X = a) = 1. 558. Sea X con media µ y varianza σ 2 . Use la desigualdad de Chebyshev para estimar la probabilidad de que X tome valores entre µ − ǫσ y µ + ǫσ para ǫ > 0 constante. 559. Enuncie y demuestre la versi´ on de Chebyshev extendida. 560. A partir de la desigualdad de Chebyshev extendida (8.3) demuestre la desigualdad de Chebyshev (8.2) y la desigualdad de Markov (8.1). 561. Demuestre que P (|X| > ǫ) ≤

E|X| para ǫ > 0, ǫ

a) usando la desigualdad de Chebyshev extendida. b) de manera directa. 562. Demuestre que P (|X| > ǫ) ≤

E|X|n para ǫ > 0 y n ∈ N, ǫn

a) usando la desigualdad de Chebyshev extendida. b) de manera directa. 563. Demuestre que P (X > ǫ) ≤

E(etX ) para ǫ > 0 y t > 0, eǫt

a) usando la desigualdad de Chebyshev extendida. b) de manera directa. 564. Sea X con funci´ on de densidad   1/18 si x = −1, 1, 16/18 si x = 0, f (x) =  0 otro caso.

Demuestre que P (|X − µ| > 3σ) y la estimaci´ on dada por la desigualdad de Chebyshev para esta probabilidad coinciden. Este ejercicio demuestra que en general la cota superior dada por la desigualdad de Chebyshev es ´ optima, es decir, no puede establecerse una cota superior m´ as peque˜ na.

565. Considere la siguiente versi´ on de la desigualdad de Chebyshev P (|X − µ| ≤ ǫσ) ≥ 1 − 1/ǫ2 . Encuentre el m´ınimo valor de ǫ > 0 de tal modo que la probabilidad de que una variable aleatoria tome valores entre µ − ǫσ y µ + ǫσ sea al menos 0.90.

182

8.2.

Ley de los grandes n´ umeros

En esta secci´ on se estudia uno de los teoremas m´ as importantes de la teor´ıa cl´ asica de la probabilidad. Se conoce como la ley de los grandes n´ umeros y establece que, bajo ciertas condiciones, el promedio de variables aleatorias converge a una constante cuando el n´ umero de sumandos crece a infinito. M´ as precisamente el resultado es el siguiente.

Teorema 5 (Ley d´ ebil de los grandes n´ umeros) Sean X1 , X2 , . . . independientes tales que E(Xi ) = µ. Para cualquier ǫ > 0, n

1X l´ım P (| Xi − µ| ≥ ǫ) = 0. n→∞ n i=1

Demostraci´ on. (Suponiendo segundo momento finito.) Sea Sn = (X1 + · · · + Xn )/n. Entonces E(Sn ) = µ y Var(Sn ) ≤ σ 2 /n asumiendo Var(Xi ) ≤ σ 2 < ∞. La desigualdad de Chebyshev aplicada a Sn establece que para cualquier ǫ > 0 se cumple P (|Sn − µ| ≥ ǫ) ≤ σ 2 /nǫ2 . Basta ahora tomar el l´ımite cuando n tiende a infinito para obtener el resultado requerido.  La ley d´ebil de los grandes n´ umeros establece entonces que la variable aleatoria Sn = (X1 + · · · + Xn )/n converge en probabilidad a la media com´ un µ. Observe que para la demostraci´ on de este resultado no hemos supuesto id´entica distribuci´ on para las variables aleatorias involucradas, u ´nicamente que tengan la misma media, que sean independientes y aunque las varianzas pueden ser diferentes, se ha necesitado que sean uniformemente acotadas. Damos a continuaci´ on un ejemplo sencillo de aplicaci´ on de este resultado y m´ as adelante demostraremos una versi´ on m´ as fuerte de la ley de los grandes n´ umeros. Ejemplo 19 (Definici´ on de probabilidad frecuentista) Considere un experimento aleatorio cualquiera y sea A un evento. Se repite sucesivamente el experimento y se observa en cada ensayo la ocurrencia o no ocurrencia del evento A. Sea Xk la variable que toma el valor uno si en el k-´esimo ensayo se observa A y cero en caso contrario. Entonces X1 , X2 , . . . son variables aleatorias independientes con distribuci´ on Ber(p) en donde p es la probabilidad desconocida del evento A. Entonces E(Xk ) = p y Var(Xk ) = p(1 − p). La ley d´ebil de los grandes n´ umeros asegura que la fracci´ on de ensayos en los que se observa el evento A converge, en probabilidad, a la constante desconocida p cuando el n´ umero de ensayos crece a infinito. Esta es la definici´ on frecuentista de la probabilidad y hemos entonces corroborado su validez con ayuda de la ley de los grandes n´ umeros. La siguiente versi´ on de la ley de los grandes n´ umeros asegura que bajo ciertas 183

condiciones la convergencia de (X1 + · · · + Xn )/n a la media µ es m´ as fuerte, es casi segura.

Teorema 6 (Ley fuerte de los grandes n´ umeros) Sean X1 , X2 , . . . independientes e identicamente distribuidas tales que E(Xi ) = µ. Entonces n

1X Xi = µ) = 1. n→∞ n

P ( l´ım

i=1

Demostraci´ on. (Suponiendo cuarto momento finito.) Dada la id´entica distribuci´ on cualquier elemento de la sucesi´ on se denota simplemente por X. Observe que E(X − µ) = 0. Entonces por independencia, n X E[( (Xi − µ))4 ] = nE[(X − µ)4 ] + 3n(n − 1)σ 4 i=1

= an + bn2 ,

para ciertas Pconstante a y b. Por la desigualdad4de Chebyshev (8.3) aplicada a la v.a. | ni=1 (Xi − µ)| y la funci´ on g(x) = x se obtiene, para ǫ > 0, P (|

n X i=1

(Xi − µ)| ≥ nǫ) ≤

an + bn2 . (nǫ)4

Pn

P Sea el evento An = (| n1 i=1 Xi − µ| ≥ ǫ). Entonces ∞ n=1 P (An ) < ∞. Por el lema de Borel Cantelli la probabilidad de que ocurra una infinidad de eventos An es cero, es decir, con probabilidad uno, solo un n´ umero finito de estos eventos ocurre. Por lo tanto con probabilidad uno, existe un n´ umero natural n a partir del cual ning´ un evento An se verifica. Es decir, n

1X P ( l´ım | Xi − µ| < ǫ) = 1. n→∞ n i=1

Como esta afirmaci´ on vale para cualquier ǫ > 0, se cumple que n

1X Xi = µ) = 1. n→∞ n

P ( l´ım

i=1

 EJERCICIOS 566. Enuncie la ley d´ebil de los grandes n´ umeros y use la desigualdad de Chebyshev para demostrarla.

184

567. Use la ley d´ebil de los grandes n´ umeros para demostrar que si Xn tiene distribuci´ on bin(n, p) entonces cuando n → ∞, 1 p Xn −→ p. n 568. Enuncie la ley fuerte de los grandes n´ umeros. 569. (Ley de los grandes n´ umeros en media cuadr´ atica.) Demuestre que si X1 , X2 , . . . es una sucesi´ on de v.a.s independientes con media µ y varianza σ 2 entonces n 1X m.c. Xi −→ µ. n i=1

Observe que no se pide la hip´ otesis de id´entica distribuci´ on para las variables aleatorias y que este resultado no es consecuencia de la ley fuerte.

570. Sean X1 , . . . , Xn independientes con distribuci´ on N(µ, σ 2 ). Para cualquier valor de n, X1 + · · · + X n ∼ N(µ, σ 2 /n). n ¿Contradice esto la ley de los grandes n´ umeros? 571. En el ejercicio 549 se pide usar la f.c. para demostrar que si X1 , . . . , Xn son v.a.i.i.d. con distribuci´ on Cauchy est´ andar entonces el promedio Sn = (X1 + · · · + Xn )/n tiene distribuci´ on Cauchy est´ andar independientemente del valor de n. ¿Contradice esto la ley de los grandes n´ umeros?

8.3.

Teorema del l´ımite central

Concluimos el curso con el c´elebre y famoso teorema del l´ımite central. Este resultado es de amplio uso en estad´ıstica y otras ramas de aplicaci´ on de la probabilidad.

Teorema 7 (Teorema del l´ımite central) Sean X1 , X2 . . . independientes e identicamente distribuidas tales que E(Xi ) = µ y Var(Xi ) = σ 2 < ∞. Para cualquier x en R,   (X1 + · · · + Xn ) − nµ √ ≤ x = P (Z ≤ x), l´ım P n→∞ nσ en donde Z tiene distribuci´ on N(0, 1).

185

Este resultado establece entonces que la variable aleatoria (X1 + · · · + Xn ) − nµ √ nσ converge en distribuci´ on a una variable aleatoria normal est´ andar sin importar la distribuci´ on original de las variables X. Observe que la suma (X1 + · · · + Xn ) tiene media nµ y varianza nσ 2 , de modo que la expresi´ on de arriba es una especie de estandarizaci´ on de esta variable. Equivalentemente este resultado puede enunciarse del siguiente modo 1 n (X1

+ · · · + Xn ) − µ d √ −→ N(0, 1). σ/ n

A fin de dar una demostraci´ on simple de este resultado supondremos adicionalmente que los elementos de la sucesi´ on tienen momentos finitos de cualquier orden. Esta demostraci´ on hace uso de la funci´ on caracter´ıstica. Demostraci´ on.(Suponiendo todos los momentos finitos.) Observe que [(X1 − µ)/σ + · · · + (Xn − µ)/σ] (X1 + · · · + Xn ) − nµ √ √ = nσ n en donde cada sumando del numerador en el lado derecho es una variable con media cero y varianza uno. Asi pues, sin p´erdida de generalidad supondremos que cada Xi tiene media cero y varianza uno y consideraremos la suma Zn =

X1 + · · · + X n √ . n

d

Se desea probar que Zn → N(0, 1). Para ello es suficiente demostrar que 2 /2

l´ım φZn (t) = e−t

n→∞

.

Tenemos que por independencia e id´entica distribuci´ on, h √ i  √ n . φZn (t) = E eit(X1 +···+Xn )/ n = φX t/ n

Por lo tanto,

√ ln φZn (t) = n ln φX (t/ n)   itE(X) i2 t2 E(X 2 ) i3 t3 E(X 3 ) √ = n ln 1 + + ··· . + + 2!n n 3!n3/2 1 1 Usando la f´ ormula ln(1 + x) = x − x2 + x3 − · · · y factorizando potencias 2 3 de it se obtiene  ln φZn (t) = E(X 2 ) − E 2 (X) i2 t2 /2   E(X 3 ) E(X)E(X 2 ) E 3 (X) i3 t3 √ + ··· √ − √ + √ + n 3! n 2 n 3 n 186

El primer sumando es −t2 /2 y todos los t´erminos a partir del segundo sumando se anulan cuando n tiende a infinito. Por lo tanto, l´ım ln φZn (t) = −t2 /2.

n→∞

Como la funci´ on logaritmo es una funci´ on continua tenemos que   ln l´ım φZn (t) = −t2 /2. n→∞

De donde se obtiene

2 /2

l´ım φZn (t) = e−t

n→∞

. 

EJERCICIOS 572. Enuncie con precisi´ on el teorema del l´ımite central. 573. Use el teorema del l´ımite central para estimar la probabilidad de obtener mas de 520 ´ aguilas en 1000 lanzamientos de una moneda honesta. 574. Sea {Xn : n = 1, 2, . . .} una sucesi´ on de v.a.i.i.d. con distribuci´ on Poisson(λ) con λ = 1. Use el teorema del l´ımite central para demostrar que n 1 X nk 1 l´ım n = . n→∞ e k! 2 k=0

575. La probabilidad de ocurrencia de un evento en un ensayo es de 0.3. ¿Cu´ al es la probabilidad de que la frecuencia relativa de este evento en 100 ensayos se encuentre entre 0.2 y 0.5?

187

Ap´ endice A

Distribuciones de probabilidad Se presenta a continuaci´ on una lista con algunas distribuciones de probabilidad de uso com´ un. Las letras µ y σ 2 denotan la esperanza y varianza respectivamente. La funci´ on generadora de probabilidad es G(t), la generadora de la momentos es M (t) y la funci´ on caracter´ıstica es φ(t). DISTRIBUCIONES UNIVARIADAS DISCRETAS Distribuci´ on uniforme X ∼ unif{x1 , . . . , xn } con n ∈ N. f (x) = 1/nPpara x = x1 , . . . , xn . E(X) = n1 nj=1 xj . P Var(X) = n1 nj=1 (xj − µ)2 . P M (t) = n1 nj=1 exj t . Distribuci´ on Bernoulli X ∼ Ber(p) con p ∈ (0, 1). f (x) = px (1 − p)1−x para x = 0, 1. E(X) = p. Var(X) = p(1 − p). G(t) = 1 − p + pt. M (t) = (1 − p) + pet . Distribuci´ on binomial X ∼ bin(n, p) con n ∈ {1, 2, . . .} y p ∈ (0, 1).

188



 n f (x) = px (1 − p)n−x para x = 0, 1, . . . , n. x E(X) = np. Var(X) = np(1 − p). G(t) = (1 − p + pt)n . M (t) = [(1 − p) + pet ]n . Distribuci´ on geom´ etrica X ∼ geo(p), con p ∈ (0, 1) y q = 1 − p f (x) = p(1 − p)x para x = 0, 1, . . . E(X) = q/p. Var(X) = q/p2 . G(t) = p/[1 − t(1 − p)]. M (t) = p/[1 − (1 − p)et ]. Distribuci´ on Poisson X ∼ Poisson(λ) con λ > 0. λx f (x) = e−λ para x = 0, 1, . . . x! E(X) = λ. Var(X) = λ. G(t) = e−λ(1−t) . M (t) = exp[λ(et − 1)]. Distribuci´ on binomial negativa X ∼ binneg(r, p) con  p ∈ (0, 1) y r ∈ {1, 2, . . .}. r+x−1 f (x) = pr (1 − p)x para x = 0, 1, . . . x E(X) = r(1 − p)/p. Var(X) = r(1 − p)/p2 . G(t) = [p/(1 − t(1 − p))]r . M (t) = [p/(1 − qet )]r . Distribuci´ on hipergeom´ etrica X ∼ hipergeo(N,  N,  K, n∈ {1, 2, . . .} y n ≤ K ≤ N .   K, n) con  N N −K K para x = 0, 1, . . . , n. / f (x) = n n−x x E(X) = nK/N . N −K N −n Var(X) = n K N N N −1 .

DISTRIBUCIONES UNIVARIADAS CONTINUAS 189

Distribuci´ on uniforme X ∼ unif(a, b) con a < b. f (x) = 1/(b − a) para x ∈ (a, b). F (x) = (x − a)/(b − a) para x ∈ (a, b). E(X) = (a + b)/2. Var(X) = (b − a)2 /12. M (t) = (ebt − eat )/(bt − at). Distribuci´ on exponencial X ∼ exp(λ) con λ > 0. f (x) = λe−λx para x > 0. F (x) = 1 − e−λx para x > 0. E(X) = 1/λ. Var(X) = 1/λ2 . M (t) = λ/(λ − t) para t < λ. Distribuci´ on gama X ∼ gama(n, λ) con λ > 0 y n > 0. (λx)n−1 −λx f (x) = λe para x > 0. Γ(n) P j F (x) = 1 − e−λx n−1 j=0 (λx) /j! para x > 0. E(X) = n/λ. Var(X) = n/λ2 . M (t) = [λ/(λ − t)]n para t < λ. Distribuci´ on beta X ∼ beta(a, b) con a > 0, b > 0. f (x) = xa−1 (1 − x)b−1 /B(a, b) para x ∈ (0, 1). E(X) = a/(a + b). Var(X) = ab/[(a + b + 1)(a + b)2 ]. Distribuci´ on normal X ∼ N(µ, σ 2 ) con µ ∈ R y σ 2 > 0. 1 2 2 f (x) = √ e−(x−µ) /2σ . 2 2πσ E(X) = µ. Var(X) = σ 2 . M (t) = exp(µt + σ 2 t2 /2). φ(t) = exp(iµt − σ 2 t2 /2). Cuando µ = 0 y σ 2 = 1 se obtiene la distribuci´ on normal est´ andar.

190

Distribuci´ on ji-cuadrada X ∼ χ2 (n) con n > 0.  n/2 1 1 f (x) = xn/2−1 e−x/2 para x > 0. Γ(n/2) 2 E(X) = n. Var(X) = 2n. M (t) = (1 − 2t)−n/2 para t < 1/2. Distribuci´ on t X ∼ t(n) con n > 0. Γ(n + 1/2) x2 f (x) = √ (1 + )−n−1/2 . n nπ Γ(n/2) E(X) = 0. Var(X) = n/(n − 2) para n > 2. M (t) no existe para t 6= 0. φ(t) = exp(|t|). Distribuci´ on log normal X ∼ log normal(µ, σ 2 ) con µ ∈ R y σ 2 > 0. 1 f (x) = √ exp[−(ln x − µ)2 /2σ 2 ] para x > 0. x 2πσ 2 E(X) = exp(µ + σ 2 /2). E(X n ) = exp(nµ + n2 σ 2 /2). Var(X) = exp(2µ + 2σ 2 ) − exp(2µ + σ 2 ). Distribuci´ on Pareto X ∼ Pareto(a, b) con a, b > 0. aba f (x) = para x > 0. (a + x)a+1 F (x) = 1 − [b/(b + x)]a para x > 0. E(X) = b/(a − 1) para a > 1. Var(X) = ab2 /[(a − 1)2 (a − 2)] para a > 2. Distribuci´ on Weibull X ∼ Weibull(r, λ) con r, λ > 0. r f (x) = e−(λx) rλr xr−1 para x > 0. r F (x) = 1 − e−(λx) para x > 0. E(X) = Γ(1 + 1/r)/λ. Var(X) = [Γ(1 + 2/r) − Γ2 (1 + 1/r)]/λ2 . Distribuci´ on Cauchy 191

X ∼ Cauchy(a, b) con b > 0. 1 f (x) = . bπ[1 + ((x − a)/b)2 ] E(X) y Var(X) no existen. Cuando a = 0 y b = 1 se obtiene la distribuci´ on Cauchy est´ andar. En este caso, 1 . f (x) = π(1 + x2 ) F (x) = 1/2 + (arctan x)/π.

192

Ap´ endice B

Formulario El alfabeto griego

A α alpha B β beta Γ γ gamma ∆ δ delta E ǫ, ε epsilon Z ζ zeta H η eta Θ θ, ϑ theta

I ι iota K κ kappa Λ λ lambda M µ mu N ν nu Ξ ξ xi O o omikron Π π pi

P ρ, ̺ rho Σ σ, ς sigma T τ tau Υ υ upsilon Φ φ, ϕ phi X χ chi Ψ ψ psi Ω ω omega

1. σ-´ algebra a) Ω ∈ F.

b) A ∈ F ⇒ Ac ∈ F.

∞ [

c) A1 , A2 , . . . ∈ F ⇒

n=1

An ∈ F.

2. Axiomas de la probabilidad a) P (Ω) = 1. b) P (A) ≥ 0, para A ∈ F. c) A1 , A2 , . . . ∈ F ajenos dos a dos ⇒ P ( 3. Esperanza E(X) =

Z



x dF (x)

−∞

a) E(c) = c b) E(cX) = cE(X) 193

∞ [

n=1

An ) =

∞ X

n=1

P (An ).

c) E(X + Y ) = E(X) + E(Y ) d ) X ≥ 0 =⇒ E(X) ≥ 0. e) X ≤ Y =⇒ E(X) ≤ E(Y ). 4. Varianza Var(X) = E(X − µ)2 .

Es un n´ umero no negativo que indica el grado de dispersi´ on de la variable aleatoria. Cumple a) b) c) d)

Var(cX) = c2 Var(X). Var(X + c) = Var(X). Var(X) = E(X 2 ) − E 2 (X). Var(X + Y ) 6= Var(X) + Var(Y ) (excepto caso independencia).

5. Covarianza Cov(X, Y ) = E [(X − E(X))(Y − E(Y ))]. a) b) c) d) e) f) g) h)

Cov(X, Y ) = E(XY ) − E(X)E(Y ). Cov(X, Y ) = Cov(Y, X). Cov(X, X) = Var(X). Cov(a, Y ) = 0, a constante. Cov(aX, Y ) = aCov(X, Y ), a constante. Cov(X1 + X2 , Y ) = Cov(X1 , Y ) + Cov(X2 , Y ). X, Y indep =⇒ Cov(X, Y ) = 0. Cov(X, Y ) = 0 =⇒ 6 X, Y indep (excepto caso normal).

Cov(X, Y ) . 6. Coeficiente de correlaci´ on ρ(X, Y ) = p Var(X) Var(Y ) Es un n´ umero en [−1, 1] que representa una medida del grado de dependencia lineal entre dos variables aleatorias. Cuando Y = aX + b con a 6= 0 y b constantes se cumple |ρ(X, Y )| = 1 y viceversa. Si X y Y son independientes entonces ρ(X, Y ) = 0, el rec´ıproco es falso excepto en el caso normal. 7. Transformaciones Si X es una variable aleatoria y φ es una funci´ on estrictamente mon´ otona y con inversa diferenciable entonces la variable aleatoria Y = φ(X) tiene funci´ on de densidad d fY (y) = fX (φ−1 (y)) | φ−1 (y)|. dy En el caso bidimensional, si (U, V ) = φ(X, Y ) con φ continua y con inversa diferenciable entonces fU,V (u, v) = fX,Y (φ−1 (u, v)) |J(u, v)|, −1 ∂φ−1 ∂φ 1 1 ∂u ∂v en donde J(u, v) = −1 . −1 ∂φ2 ∂φ2 ∂u ∂v En particular se cumplen las siguiente f´ ormulas 194

a) fX+Y (u) =

Z



Z−∞ ∞

fX,Y (u − v, v) dv

b) fX−Y (u) = fX,Y (u + v, v) dv −∞ Z ∞ 1 c) fXY (u) = fX,Y (u/v, v) dv v Z−∞ ∞ d ) fX/Y (u) = fX,Y (uv, v) |v| dv −∞

8. Funci´ on generadora de probabilidad G(t) = E(tX ). Se utiliza principalmente para distribuciones discretas. Cuando existe determina de manera u ´nica a la distribuci´ on de probabilidad. Genera los momentos factoriales a trav´es de la f´ ormula G(n) (1) = E[X(X − 1) · · · (X − n + 1)], cuando estos momentos existen. Cumple adem´ as a) X, Y indep ⇒ GX+Y (t) = GX (t)GY (t), el rec´ıproco es falso. 9. Funci´ on generadora de momentos M (t) = E(etX ). Esta funci´ on no existe para todas las distribuciones de probabilidad. Cuando existe en alg´ un intervalo no trivial alrededor de t = 0 determina de manera u ´nica a la distribuci´ on de probabilidad. Genera los (n) momentos a trav´es de la f´ ormula M (0) = E(X n ). Adem´ as cumple a) X, Y indep ⇒ MX+Y (t) = MX (t)MY (t), el rec´ıproco es falso. d

b) Xn → X si y solo si MXn (t) → MX (t) para cada t en (−ǫ, ǫ), ǫ > 0. 10. Funci´ on caracter´ıstica φ(t) = E(eitX ). Es una funci´ on que siempre existe y determina de manera u ´nica a la distribuci´ on de probabilidad. Genera los momentos a trav´es de la f´ ormula φ(n) (0) = in E(X n ) cuando estos momentos existen. Adem´ as cumple a) X, Y indep ⇒ φX+Y (t) = φX (t)φY (t), el rec´ıproco es falso. d

b) Xn → X si y solo si φXn (t) → φX (t) para cada t en R. Z T 1 1 − e−ith −itx c) F (x + h) − F (x) = l´ım e φ(t) dt (L`evy). T →∞ 2π −T it Z T 1 e−itx φ(t) dt. d ) f (x) = l´ım T →∞ 2π −T n

1X Xi −→ µ n

11. Ley de los grandes n´ umeros

i=1

12. Teorema del l´ımite central

(X1 + · · · + Xn ) − nµ d √ −→ N(0, 1) nσ

195

Ap´ endice C

Tabla de la distribuci´ on normal est´ andar 1 Φ(x) = √ 2π

Z

x

2 /2

e−t

dt

−∞

x

0.00

0.01

0.02

0.03

0.04

0.05

0.06

0.07

0.08

0.09

0.0 0.1 0.2 0.3 0.4

0.5000 0.5398 0.5793 0.6179 0.6554

0.5040 0.5438 0.5832 0.6217 0.6591

0.5080 0.5478 0.5871 0.6255 0.6628

0.5120 0.5517 0.5910 0.6293 0.6664

0.5160 0.5557 0.5948 0.6331 0.6700

0.5199 0.5596 0.5987 0.6368 0.6736

0.5239 0.5636 0.6026 0.6406 0.6772

0.5279 0.5675 0.6064 0.6443 0.6808

0.5319 0.5714 0.6103 0.6480 0.6844

0.5359 0.5753 0.6141 0.6517 0.6879

0.5 0.6 0.7 0.8 0.9

0.6915 0.7257 0.7580 0.7881 0.8159

0.6950 0.7291 0.7611 0.7910 0.8186

0.6985 0.7324 0.7642 0.7939 0.8212

0.7019 0.7357 0.7673 0.7967 0.8238

0.7054 0.7389 0.7704 0.7995 0.8264

0.7088 0.7422 0.7734 0.8023 0.8289

0.7123 0.7454 0.7764 0.8051 0.8315

0.7157 0.7486 0.7794 0.8078 0.8340

0.7190 0.7517 0.7823 0.8106 0.8365

0.7224 0.7549 0.7852 0.8133 0.8399

1.0 1.1 1.2 1.3 1.4

0.8413 0.8643 0.8849 0.9032 0.9192

0.8438 0.8665 0.8869 0.9049 0.9207

0.8461 0.8686 0.8888 0.9066 0.9222

0.8485 0.8708 0.8907 0.9082 0.9236

0.8508 0.8729 0.8925 0.9099 0.9251

0.8531 0.8749 0.8944 0.9115 0.9265

0.8554 0.8770 0.8962 0.9131 0.9279

0.8577 0.8790 0.8980 0.9147 0.9292

0.8599 0.8810 0.8997 0.9162 0.9306

0.8621 0.8830 0.9015 0.9177 0.9319

1.5 1.6 1.7 1.8 1.9

0.9332 0.9452 0.9554 0.9641 0.9713

0.9345 0.9463 0.9564 0.9649 0.9719

0.9357 0.9474 0.9573 0.9656 0.9726

0.9370 0.9484 0.9582 0.9664 0.9732

0.9382 0.9495 0.9591 0.9671 0.9738

0.9394 0.9505 0.9599 0.9678 0.9744

0.9406 0.9515 0.9608 0.9686 0.9750

0.9418 0.9525 0.9616 0.9693 0.9756

0.9429 0.9535 0.9625 0.9699 0.9761

0.9441 0.9545 0.9633 0.9706 0.9767

2.0 2.1 2.2 2.3 2.4

0.9772 0.9821 0.9861 0.9893 0.9918

0.9778 0.9826 0.9864 0.9896 0.9920

0.9783 0.9830 0.9868 0.9898 0.9922

0.9788 0.9834 0.9871 0.9901 0.9925

0.9793 0.9838 0.9875 0.9904 0.9927

0.9798 0.9842 0.9878 0.9906 0.9929

0.9803 0.9846 0.9881 0.9909 0.9931

0.9808 0.9850 0.9884 0.9911 0.9932

0.9812 0.9854 0.9887 0.9913 0.9934

0.9817 0.9857 0.9890 0.9916 0.9936

2.5 2.6 2.7 2.8 2.9

0.9938 0.9953 0.9965 0.9974 0.9981

0.9940 0.9955 0.9966 0.9975 0.9982

0.9941 0.9956 0.9967 0.9976 0.9982

0.9943 0.9957 0.9968 0.9977 0.9983

0.9945 0.9959 0.9969 0.9977 0.9984

0.9946 0.9960 0.9970 0.9978 0.9984

0.9948 0.9961 0.9971 0.9979 0.9985

0.9949 0.9962 0.9972 0.9979 0.9985

0.9951 0.9963 0.9973 0.9980 0.9986

0.9952 0.9964 0.9974 0.9981 0.9986

3.0 3.1 3.2 3.3 3.4

0.9987 0.9990 0.9993 0.9995 0.9997

0.9987 0.9991 0.9993 0.9995 0.9997

0.9987 0.9991 0.9994 0.9995 0.9997

0.9988 0.9991 0.9994 0.9996 0.9997

0.9988 0.9992 0.9994 0.9996 0.9997

0.9989 0.9992 0.9994 0.9996 0.9997

0.9989 0.9992 0.9994 0.9996 0.9997

0.9989 0.9992 0.9995 0.9996 0.9997

0.9990 0.9993 0.9995 0.9996 0.9997

0.9990 0.9993 0.9995 0.9997 0.9998

196

Bibliograf´ıa [1] Blake I.F. (1979) An introduction to applied probability. Wiley. [2] Cohn D.L. (1980) Measure theory. Birkh¨ auser. [3] Feller W. (1978) Introducci´ on a la teor´ıa de las probabilidades y sus aplicaciones. Vol. I y II. Limusa. [4] Grimmett G.R., Stirzaker D.R. (1982) Probability and random processes. Clarendon Press. [5] Grimmett G.R., Stirzaker D.R. (1986) Probability: an introduction. Oxford University Press. [6] Grimmett G.R. , Stirzaker D.R. (2001) One thousand exercises in probability. Oxford University Press. [7] Halmos P.R. (1960) Measure theory. Van Nostrand. [8] Harris B. (1966) Theory of probability. Addison–Wesley. [9] Hoel P., Port S., Stone C. (1971) Probability theory. Houghton Mifflin Co. [10] Jacod D., Protter P. (2000) Probability essentials. Springer–Verlag. [11] Karr A.F. (1993) Probability. Springer–Verlag. [12] Laha R. G., Rohatgi V. K. (1979) Probability theory. John Wiley & Sons. [13] Miller I., Miller M. (1999) John E. Freund’s mathematical statistics 6th ed. Prentice–Hall. [14] Mood A.M., Graybill F.A., Boes D.C. (1974) Introduction to the theory of statistics. McGraw Hill. [15] Parzen E. (1960) Modern probability theory and its applications. Wiley. [16] Resnick S.I. (1999) A probability path. Birkh¨ auser. [17] Rinc´ on L. (2004) ¿Qu´e es la esperanza condicional? Miscel´ anea Matem´ atica. No. 37, Agosto 2004, SMM. 197

[18] Romano J.P. , Siegel A.F. (1986) Counterexamples in probability and statistics. Chapman & Hall. [19] Rosenthal J.S. (2000) A first look at rigorous probability theory. World Scientific. [20] Ross S. (1976) A first course in probability. Prentice Hall. [21] Williams D. (1991) Probability with martingales. Cambridge University Press. [22] Williams D. (2001) Weighing the odds: a course in probability ans statistics. Cambridge University Press.

198

´Indice σ-´ algebra, 5 generada, 8 m´ınima generada, 8 σ-´ algebra, 4 de Borel, 11

beta, 74, 190 binomial, 65, 188 binomial negativa, 68, 189 Cauchy, 191 exponencial, 71, 190 exponencial doble, 72 F de Snedecor, 138 gama, 72, 190 geom´etrica, 66, 189 hipergeom´etrica, 69, 189 hipergeom´etrica multivariada, 111 ji-cuadrada, 131, 191 log normal, 78, 115, 191 multinomial, 110 normal, 76, 190 normal bivariada, 112 Pareto, 191 Poisson, 67, 189 t de Student, 136, 191 uniforme continua, 70, 190 uniforme discreta, 63, 188 Weibull, 191

Borel-Cantelli, 34 Coeficiente de correlaci´ on, 105 Conjunto Borel medible, 11 Boreliano, 11 de Borel, 11 medible, 5 Continuidad de la prob, 29, 30 Convergencia casi dondequiera, 151 casi segura, 151 casi siempre, 151 d´ebil, 154 de eventos, 15 en distribuci´ on, 154 en media, 153 en media cuadr´ atica, 154 en probabilidad, 152 puntual, 150 puntual de v.a.s, 150 Convoluci´ on, 120 Covarianza, 102 Desigualdad de Bonferroni, 28 de Boole, 24 de Cauchy-Schwarz, 62 de Chebyshev, 179, 180 de Kounias, 28 de Markov, 178 Distribuci´ on arcoseno, 75 Bernoulli, 64, 188

Espacio de probabilidad, 4, 5 medible, 5 muestral, 4 Esperanza condicional, 96 de un vector, 99 de una funci´ on de un vector, 99 de una v.a., 55 Estad´ısticas de orden, 141 Estad´ıstica, 130 Evento, 4 Funci´ on caracter´ıstica, 171 f´ ormula de inversi´ on, 172, 173 teorema de continuidad, 174 teorema de unicidad, 173 199

Funci´ on de densidad condicional, 89 conjunta, 84 marginal, 87 Funci´ on de distribuci´ on, 44 condicional, 89 conjunta, 81 marginal, 87 Funci´ on generadora de momentos, 166 de probabilidad, 162

de un vector, 99 de una v.a., 59 muestral, 130 Vector aleatorio, 80 continuo, 81 discreto, 81

Independencia de σ-´ algebras, 33 de eventos, 32 de v.a.s, 91 Integral de Riemann-Stieltjes, 53 L´ımite inferior, 15 L´ımite superior, 15 Ley de los grandes n´ umeros, 183 d´ebil, 183 fuerte, 184 Matriz de varianzas, 99 Media, 56 muestral, 130 Medida de probabilidad, 5, 20 Momentos, 61 absolutos, 61 centrales, 61 centrales absolutos, 61 Muestra aleatoria, 130 Teorema de cambio de variable, 114, 116 de convergencia dominada, 160 de convergencia mon´ otona, 160 del l´ımite central, 185 Valor esperado, 56 Valor medio, 56 Valor promedio, 56 Variable aleatoria, 36 continua, 51 discreta, 50 mixta, 51 Varianza condicional, 98 200

Suggest Documents