Tema 3 Variables aleatorias yprincipales distribuciones

Tema 3 Variables aleatorias y principales distribuciones 1. Variables aleatorias 2. Distribuciones de probabilidad de v. a. discretas 3. Distribución ...
244 downloads 3 Views 263KB Size
Tema 3 Variables aleatorias y principales distribuciones 1. Variables aleatorias 2. Distribuciones de probabilidad de v. a. discretas 3. Distribución de probabilidad de v. a. continuas 4. Propiedades de las variables aleatorias 5. Distribución de Bernoulli 6. Distribución binomial 7. Distribución hipergeométrica 8. Distribución de Poisson 9. Distribución uniforme continua 10.Distribución normal 1

1. Variables aleatorias Concepto: Una variable aleatoria es una variable que toma valores numéricos determinados por el resultado de un experimento aleatorio. Es la correspondencia que asocia cada elemento del espacio muestral con un número real. Así, si el resultado es numérico, los valores asociados a la variable podrán ser los del propio experimento; sin embargo, si el resultado es cualitativo, habrá que asignarle un valor real. Es evidente que la asignación de valores numéricos a los resultados del experimento no es única, pudiendo definirse distintas variables aleatorias para un mismo experimento. Definición: Dado un experimento aleatorio, con espacio muestral asociado Ω, una variable aleatoria es cualquier función, X,

X: Ω → R que asocia a cada suceso elemental un número real. 2

1.1 Propiedades 1. Si

X

es una variable aleatoria definida sobre un espacio muestral y

una constante cualquiera, espacio.

c·X

c

es

es una variable aleatoria sobre el mismo

2. Si X e Y son dos variables aleatorias, su suma son también variables aleatorias.

X+Y

y su producto

X·Y

3. En general, cualquier función medible de variables aleatorias es también una variable aleatoria.

3

1.2 Variables aleatorias discretas y continuas

Discretas

variables aleatorias Continuas

• Una variable aleatoria es una variable aleatoria discreta si no puede tomar más de una cantidad numerable de valores. • Una variable aleatoria es una variable aleatoria continua si puede tomar cualquier valor de un intervalo. Una variable aleatoria que tome unos valores puntuales con probabilidad dada, y el resto de los valores los tome dentro de uno o varios intervalos, se dirá que es una variable aleatoria mixta. 4

1.3 Caracterización de las variables aleatorias La variable aleatoria es una abstracción numérica que se hace de los resultados de un experimento aleatorio, y puesto que cada suceso tiene una determinada probabilidad de ocurrencia, se traslada dicha probabilidad al valor correspondiente de la variable aleatoria. Si la variable aleatoria es discreta y toma pocos valores distintos, es factible dar todos esos valores con sus probabilidades de una forma explícita. Pero si la variable es discreta y toma muchos valores diferentes (tal vez infinitos) o si es continua, lo anterior es poco recomendable o incluso imposible. Por ellos es necesario apoyarse en una serie de funciones, relacionadas íntimamente con dichas probabilidades, que permiten resolver el problema. Estas funciones son la función de probabilidad (de masa en el caso discreto y de densidad en el continuo) y la de distribución.

Caracterización de variables aleatorias

Función de probabilidad

f. de masa f. de densidad

Función de distribución 5

1.4 Función de distribución de una variable aleatoria Definición: La función de distribución de una variable aleatoria

X

es una

función real que a cada número real x le asocia la probabilidad de que la variable tome valores menores o iguales que dicho número, esto es:

F(x) = P(X ≤ x) = P({ω ∈ Ω

tales que

X(ω) ≤ x})

Propiedades: 1.

0 ≤ F(x) ≤ 1.

2.

F es no decreciente (x1 < x2 ⇒ F(x1) ≤ F(x2)).

3.

F (+ ∞ ) = 1

4.

F (− ∞ ) = 0

5.

F es continua por la derecha F (x + ) = lim F (x + h) = F (x ) . +

(lim F (x ) = 1). (lim F (x ) = 0) . x →∞

x → −∞

(

h →0

)

6

2. Distribuciones de probabilidad de variables aleatorias discretas Una variable aleatoria discreta es aquella que sólo puede tomar valores dentro de un conjunto finito o infinito numerable.

2.1 Función de masa de probabilidad de una variable aleatoria discreta

X una variable aleatoria discreta que toma los valores xi con probabilidades pi = P(X = xi), con ∑i pi = 1. Se denomina función de masa de probabilidad o función de probabilidad de la variable X a la función que asigna a cada xi su probabilidad pi. Definición: Sea

La función de probabilidad sólo toma valores distintos de tos

x.

0 en

puntos discre-

Una variable aleatoria queda perfectamente determinada cuando se conoce su función de masa de probabilidad. 7

2.2 Propiedades que deben satisfacer las funciones de probabilidad de variables aleatorias discretas

X una variable P(x). En este caso, Sea

1.

0 ≤ P(x) ≤ 1

aleatoria discreta que tiene una función de probabilidad

para cualquier valor

2. Las probabilidades individuales suman

x. 1:

∑ P (x i ) = 1 i

2.3 Función de probabilidad acumulada (función de distribución) La función de distribución de una variable aleatoria discreta asocia cada número x con la probabilidad acumulada hasta ese valor:

F(x) = P(X ≤ x) F(x) es escalonada, no decreciente, con saltos de discontinuidad puntos xi. El valor del salto en xi coincide con la probabilidad, pi, de

La función

en los dicho valor.

8

2.4 Relación entre la función de probabilidad y la función de probabilidad acumulada

X una variable P(x). En este caso, Sea

aleatoria discreta que tiene una función de probabilidad

F ( x0 ) = ∑ P ( x ) x ≤ x0

donde la notación implica que el sumatorio abarca todos los valores posibles de x que son menores o iguales a x0.

9

3. Distribuciones de probabilidad de variables aleatorias continuas Una variable aleatoria continua es aquella que toma valores en uno o varios intervalos de la recta real.

3.1 Función de densidad de probabilidad de una variable aleatoria continua Concepto La medida de muchos experimentos es aproximada, pues no se puede precisar la exactitud mediante un proceso de medición físico. Así, cuando se recogen datos de una variable estadística, se clasifican los resultados en clases con sus respectivas frecuencias. Como puede verse en el gráfico siguiente, al hacer las clases más y más finas, el histograma de frecuencias se aproxima a cierta curva. De este modo surge el concepto de función de densidad como la función límite a la cual se aproxima el histograma.

10

10 15 20 25 30 35

11

0.00

0.02

0.04

0.06

0.08

Para hallar la probabilidad de que una variable aleatoria X esté comprendida en un intervalo específico, se calcula la diferencia entre la probabilidad acumulada en el extremo superior del intervalo y la probabilidad acumulada en el extremo inferior del intervalo. Así, dada una variable aleatoria continua

(a,b) será el área limitada x = b y el eje de abscisas.

X,

la probabilidad de un intervalo

por esta función de densidad, las rectas

x = a,

f(x)

a

b

x

12

La probabilidad de que la variable aleatoria tome un valor concreto es igual a cero:

P(X = x0) = 0, para cualquier valor de x0. Definición: Dada una variable aleatoria continua es la función real de la variable real:

X,

su función de densidad

P (x − h ≤ X ≤ x + h ) f (x ) = lim+ h →0 2·h

La función f(x) describe el comportamiento idealizado de la variable aleatoria continua asociada, reflejando, para cada intervalo real sobre el que tome valores la variable, su densidad de probabilidad.

3.2 Función de distribución

F(x), de una variable aleatoria continua X expresa la probabilidad de que X no sea mayor que el valor de x, en función de x

La función de distribución,

F (x ) = P ( X ≤ x ) = ∫−∞ f (t )dt → f (x ) = x

dF (x ) dx

13

3.3 Propiedades de la función de densidad y de la función de distribución Sea

X

una variable aleatoria continua y

x

cualquier número situado en el

rango de valores que puede tomar esta variable aleatoria. Sea ción de densidad y propiedades: 1.

f(x) ≥ 0

F(x)

f(x),

su fun-

su función de distribución. Se tienen las siguientes

−∞ < x < ∞.

f(x), cuando se abarcan los valores de la variable aleatoria, X, es igual a 1.

2. El área situada debajo de la función de densidad de probabilidad,

∫ f (x )dx = F (+ ∞ ) = 1 ∞ −∞

3. Supongamos que se representa gráficamente esta función de densidad. Sean a y b dos valores posibles de la variable aleatoria X, siendo

a < b.

En ese caso, la probabilidad de que X se encuentre entre a y es el área situada debajo de la función de densidad entre estos puntos.

P (a ≤ X ≤ b ) = P (a < X < b ) = ∫a f (t )dt =F (b ) − F (a) b

14

b

En el caso de las variables aleatorias continuas, da lo mismo escribir “menor que” o “menor o igual que”, ya que la probabilidad de que X sea exactamente igual a

a o a b es 0.

La probabilidad de que una variable aleatoria continua se encuentre entre dos valores cualesquiera puede expresarse por medio de su función de distribución acumulada. Por consiguiente, esta función contiene toda la información sobre la estructura de probabilidad de la variable aleatoria.

F(x0), es el área situada la función de densidad de probabilidad, f(x), hasta x0.

4. La función de distribución acumulada,

debajo de

F (x0 ) = P ( X ≤ x0 ) = ∫xm0 f (t )dt x

donde

xm es el valor mínimo de la variable aleatoria X.

5. La probabilidad de que una variable aleatoria continua tome un único valor es nula.

P ( X = x0 ) = ∫x00 f (t )dt = 0 x

Para ciertas variables continuas de uso frecuente, los valores de cuentran tabulados, lo cual facilita el cálculo de probabilidades.

F(x)

se en15

4. Propiedades de las variables aleatorias 4.1 Valor esperado de una variable aleatoria: la función esperanza matemática Para tener una medida del punto central de una distribución de probabilidad, se introduce el concepto de esperanza de una variable aleatoria. El valor esperado es la medida correspondiente del punto central de una variable aleatoria. El valor esperado de una variable aleatoria también se llama media y se representa por medio del símbolo µ.

16

4.2 Valor esperado de una variable aleatoria discreta Supuesto que

∑ x·P (x ) < ∞, el valor esperado, E(X), de una variable aleax

toria discreta

X se define de la forma siguiente:

xx

E ( X ) = µ = ∑ x·P (x ) x

donde la notación indica que el sumatorio abarca a todos los valores posibles de x.

4.3 Valor esperado de una variable aleatoria continua Supongamos que en un experimento aleatorio se obtiene un resultado que puede representarse por medio de una variable aleatoria continua. Si se realizan N réplicas independientes de este experimento, el valor esperado de la variable aleatoria es la media de los valores obtenidos, cuando el número de réplicas tiende a infinito. El valor esperado de una variable se representa por E(X).

µ = E ( X ) = ∫x x·f (x )dx

17

4.4 Propiedades del valor esperado 1. E(a·X + b) = a·E(X) + b. 2. E(X + Y) = E(X) + E(Y).

X es una variable aleatoria discreta que toma valores xi dad pi, la media de la variable transformada Y = g(X) es

3. Si

con probabili-

E (Y ) = E (g ( X )) = ∑ g (x )·P (x ) x

4. Si

X

es una variable aleatoria continua con función de densidad

media de la variable transformada

Y = g(X) es

f(x),

E (Y ) = E (g( X )) = ∫−∞ g (x )·f (x )dx ∞

18

la

4.5 Varianza de una variable aleatoria Sea

X

una variable aleatoria. La esperanza de los cuadrados de las diferen-

cias con respecto a la media, medio del símbolo

(X − µ)2, se llama varianza, se representa

σ 2 y viene dada por: 2 2 σ = E (X − µ )

[

La desviación típica,

por

]

σ, es la raíz cuadrada positiva de la varianza.

Si la variable aleatoria es discreta:

[

]

σ 2 = E ( X − µ ) = ∑ ( X − µ ) ·P (x ) 2

Si la variable aleatoria es continua:

[

]

2

x

σ 2 = E ( X − µ ) = ∫x ( X − µ ) ·f (x )dx 2

2

4.6 Propiedades de la varianza 1.

Var(a·X + b) = a2·Var(X).

2.

σ 2 = E ( X − µ ) = E (X 2 ) − µ 2 .

[

2

]

19

4.7 Tipificación de una variable aleatoria Una variable aleatoria se dice que está estandarizada o tipificada, si su media es 0 y su varianza es 1. Para transformar una variable X con media µ y desviación típica pificada, basta con aplicar la transformación lineal:

σ en otra

ti-

X −µ Y = σ La tipificación es útil para: 1. El cálculo de probabilidades utilizando tablas. 2. Comparar distintas variables medidas en unidades diferentes.

20

4.8 Independencia de variables aleatorias Dos variables aleatorias definidas en un mismo espacio de probabilidad, se dicen independientes si para cualquier B1, B2 ∈ B, donde cualquier B1 y B2 son sus campos de definición, se cumple:

P (( X ∈ B1 ) I (Y ∈ B2 )) = P ( X ∈ B1 )·P (Y ∈ B2 ) Equivalentemente, se cumple:

X

e

Y

son independientes si para cualesquiera

x, y ∈ R,

P (( X ≤ x ) I (Y ≤ y )) = P ( X ≤ x )·P (Y ≤ y ) 4.9 Propiedades de las variables aleatorias independientes Si dos variables aleatorias X e Y son independientes, entonces la varianza de su suma es igual a la suma de sus varianzas:

Var(X + Y) = Var(X) + Var(Y) 21

5. Distribución de Bernoulli Definición: Una prueba de Bernoulli es un experimento aleatorio cuyos posibles resultados son agrupados en dos conjuntos excluyentes llamados “éxito” (E) y “fracaso” (F), con P(E) = P y P(F) = 1 − P. Esta división de éxito y fracaso puede ser algo que viene impuesto de manera natural o una división artificial que interesa realizar. Definición: Realizamos una prueba de Bernoulli con P(E) ción de Bernoulli es la distribución de la variable aleatoria

1 X = 0

= P.

La distribu-

si se obtiene éxito. si se obtiene fracaso.

La función de probabilidad es:

P(X = 0) = 1 − P P(X = 1) = P O bien:

P(X = x) = Px·(1 − P)1 − x

para

x = 0,1.

22

5.1 Media de una variable aleatoria de Bernoulli

µ = E ( X ) = ∑ x·P (x ) = 0·(1 − P ) + 1·P = P x

5.2 Varianza de una variable aleatoria de Bernoulli

[

]

σ 2 = E ( X − µ ) = ∑ (x − µ ) ·P (x ) = 2

2

x

= (0 − P ) ·(1 − P ) + (1 − P ) ·P = P·(1 − P ) 2

2

23

6. Distribución Binomial Concepto Una importante generalización de la distribución de Bernoulli es el caso en el que se realiza varias veces un experimento aleatorio con dos resultados posibles y las repeticiones son independientes. En este caso, se puede hallar las probabilidades utilizando las distribución binomial. Supongamos que la probabilidad de un éxito en una única prueba es se realizan

n

tantes de estas

0

y

n.

exactamente

n

X resul-

pruebas podría ser cualquier número entero comprendido

Interesa saber exactamente cuál es la probabilidad de obtener

X = x éxitos en n pruebas.

El resultado de

(n − x)

que

pruebas independientes, por lo que el resultado de cualquiera

de ellas no influye en el resultado de las demás. El número de éxitos entre

Py

n

pruebas será la obtención de

x

éxitos y, por consiguiente,

fracasos. La probabilidad de éxito en una única prueba es

P

y la

probabilidad de fracaso (1 − P). Dado que las n pruebas son independientes entre sí, la probabilidad de cualquier secuencia de resultados es, por la regla del producto de probabilidades, igual al producto de probabilidades de los resultados individuales. 24

Por lo tanto, la probabilidad de observar cualquier secuencia específica que x n−x contenga x éxitos y (n − x) fracasos es P ·(1 − P) .

6.1 La distribución binominal

n pruebas de Bernoulli independientes, con P(E)=P y P(F) = 1 − P en cada prueba. La distribución binomial B(n;P) es la distribución de la variable aleatoria X = “número de éxitos obtenidos en n

Definición: Se realizan

pruebas”. Su función de probabilidad es:

n  x n− x P ( X = x ) =  ·P ·(1 − P ) = x n! n− x ·P x ·(1 − P ) = para x = 0,1,2, K , n x!·(n − x )! El hecho de que una variable aleatoria X tenga distribución binomial con n pruebas y probabilidad de éxito P se representa: X∼B(n;P). Si X1,…,Xk son variables aleatorias tales que tiene que: k k

X∼B(n;P), con i = 1,…,k, se

∑ X i ~ B ∑ ni ; P   i =1  i =1

25

6.2 Media y varianza de una variable aleatoria Binomial Sea

X

el número de éxitos en

una probabilidad de éxito media

P,

n

repeticiones independientes, cada una con

entonces

X

sigue una distribución binomial de

µ = E ( X ) = ∑ x·P (x ) = n·P x

y varianza

[

]

σ 2 = E ( X − µ ) = ∑ (x − µ ) ·P (x ) = n·P·(1 − P ) 2

2

x

Antes de utilizar la distribución binomial, debe analizarse la situación específica para ver si: 1. En la aplicación se realizan varias pruebas, cada una de las cuales sólo tiene dos resultados. 2. La probabilidad del resultado es la misma en cada prueba. 3. La probabilidad del resultado de una prueba no afecta a la probabilidad del resultado de otras pruebas. 26

7. Distribución hipergeométrica 7.1 Distribución binomial vs. Distribución hipergeométrica La distribución binomial supone que los objetos se seleccionan independientemente y que la probabilidad de seleccionar uno es constante. En muchos problemas aplicados, estos supuestos pueden satisfacerse si se extrae una pequeña muestra de una gran población. Cuando no se cumplen los supuestos de la distribución binomial, debe elegirse un modelo de probabilidad diferente. Esta distribución de probabilidad es la distribución de probabilidad hipergeométrica. Se puede utilizar la distribución binomial en las situaciones de “muestreo con reposición”. Si la población es grande (N > 10.000) y el tamaño de la

muestra es pequeño (0. e: La base de los logaritmos naturales; 2,71828. 32

8.3 La media y la varianza de la distribución de probabilidad de Poisson La media será igual a:

µ = E (X ) = λ Y la varianza:

[

]

σ 2 = E (X − µ ) = λ 2

La suma de las variables aleatorias de Poisson también es una variable aleatoria de Poisson. Por lo tanto, la suma de K variables aleatorias de Poisson, cada una de media

λ, es una variable aleatoria de Poisson de media K·λ.

33

8.4 Aproximación de Poisson de la distribución binomial La distribución de Poisson puede utilizarse como aproximación de las probabilidades binomiales cuando el número de pruebas, n, es grande y al mismo tiempo la probabilidad,

P ≤ 0,1)

P,

es pequeña (generalmente, tal que

n ≥ 30

y

X el número de éxitos resultante de n pruebas independientes, cada una con una probabilidad de éxito P. La distribución del número de éxitos, X, es binomial de media n·P. Si el número de pruebas, n, es grande y n·P sólo tiene un tamaño moderado (preferiblemente n·P ≤ 7), es posible utilizar como aproximación la distribución de Poisson, en la que λ=n·P. La función Sea

de probabilidad de la distribución aproximada es, pues,

e − n·P ·(n·P ) P (x ) = x!

x

para x

= 0,1,2, K

34

9. La distribución uniforme continua Cualquier variable aleatoria uniforme X definida en el rango entre la siguiente función de densidad de probabilidad:

 1  f (x ) =  b − a 0 f(x)

si

a y b tiene

a≤x≤b

en caso contrario

1 b−a

a

b

x

Esta función de densidad de probabilidad puede utilizarse para hallar la probabilidad de que la variable aleatoria se encuentre dentro de un intervalo específico. 35

La función de distribución correspondiente será:

0 si x < a  x − a F (x ) =  si a ≤ x ≤ b b − a 1 si b < x Para la distribución uniforme definida en el rango tes resultados:

µ = E (X ) = σ2

a y b, se tienen los siguien-

a+b 2

2 ( b − a ) 2 = E [( X − µ ) ] =

12

36

10.La distribución normal Razones por las que se utiliza frecuentemente: 1.

La distribución normal es una aproximación muy buena de las distribuciones de probabilidad de una amplia variedad de variables aleatorias.

2.

Las distribuciones de las medias muestrales siguen una distribución normal, si el tamaño de muestra es grande.

3.

El cálculo de probabilidades es directo.

10.1 Función de densidad de probabilidad de la distribución normal La función de densidad de probabilidad de una variable aleatoria una distribución normal

X es: 1 f (x ) = e 2 2·π ·σ

X

que sigue

x − µ )2 ( − 2·σ 2

µ y σ 2 son números tales que −∞ < µ < ∞ y 0 < σ 2 < ∞ y donde e y π son constantes físicas, e = 2,71828 y π = 3,14159.

Donde

37

La distribución normal representa una gran familia de distribuciones, cada una con una especificación única de los parámetros µ y σ 2.

10.2 Propiedades de la distribución normal Supongamos que la variable aleatoria parámetros son

X

sigue una distribución normal cuyos

µ y σ 2. En ese caso, se cumplen las siguientes propiedades: µ. E (X ) = µ

1. La media de la variable aleatoria es

2. La varianza de la variable aleatoria es parámetros

[

]

σ 2:

var ( X ) = E ( X − µ ) = σ 2 2

3. La forma de la función de densidad de probabilidad es una curva simétrica en forma de campana centrada en la media, µ. 4. Si conocemos la media y la varianza, se puede definir la distribución normal utilizando la notación:

X ~ N (µ , σ 2 ) 38

La distribución normal tiene algunas características importantes: 1. Es simétrica. 2. Seleccionando distintos valores de µ y σ 2 se pueden definir una gran familia de funciones de densidad normales. Sean Xi tonces

∼ N(µi,σi)

con

i = 1,…,n,

variables aleatorias independientes. En-

n n  2  ∑ X i ~ N  ∑ µi , ∑ σ i  i =1 i =1  i =1  n

10.3 Función de distribución de la distribución normal

X es una variable aleatoria normal de media µ y varianza σ 2. ( x0 ) = P ( X ≤ x0 ) . En ese caso, la función de distribución es: F XX Supongamos que

Ésta es el área situada debajo de la función de densidad normal a la izquierda de x0. Al igual que ocurre en cualquier función de densidad, el área total situada debajo de la curva es

1. F (∞ ) = 1 .

39

40

f(x)

µ

x

x0

El área de color azul es la probabilidad de que caso de una variable aleatoria normal.

X

no sea mayor que

x0

en el

41

F (x ) =

1 x ·∫−∞ e σ · 2π

1 ( X − µ )2 − · 2 σ2

dx

−∞< x