CI2612: Algoritmos y Estructuras de Datos II. Espacio de probabilidad. Objetivos. Blai Bonet

CI2612: Algoritmos y Estructuras de Datos II An´ alisis probabil´ıstico Blai Bonet Universidad Sim´on Bol´ıvar, Caracas, Venezuela c 2016 Blai Bonet...
1 downloads 0 Views 257KB Size
CI2612: Algoritmos y Estructuras de Datos II An´ alisis probabil´ıstico

Blai Bonet Universidad Sim´on Bol´ıvar, Caracas, Venezuela

c 2016 Blai Bonet

Objetivos

Espacio de probabilidad

Las probabilidades se definen sobre un espacio de probabilidad

• Estudiar los elementos b´ asicos de la teor´ıa de probabilidad para

realizar los an´alisis necesarios de algoritmos

El espacio de probabilidad lo conforman: – el espacio muestral Ω que contiene todos los posibles resultados del experimento o proceso probabil´ıstico

• Ejemplos de an´ alisis probabil´ıstico

– el conjunto F de eventos a considerar (en nuestro caso todos los subconjuntos de Ω) – la funci´ on o medida de probabilidad P(·) definida sobre los eventos

c 2016 Blai Bonet

c 2016 Blai Bonet

Ejemplo: Lanzar una moneda

Eventos

Considere el experimento de lanzar una moneda Existen dos posibles resultados del experimento: Ω = {H, T } El conjunto de eventos es F = {∅, {H}, {T }, {H, T }}:

Para cada ω ∈ Ω, el evento {ω} se llama evento at´ omico y representa un u ´nico resultado del experimento Los otros eventos denotan conjuntos de posibles resultados los cuales son u ´tiles para el an´alisis del experimento

– El evento ∅ denota que el experimento no di´o ningu´ n resultado – El evento {H} denota que la moneda sali´ o cara

Por ejemplo, si el experimento es lanzar un dado, podemos hablar del evento que el dado cae en un n´ umero par

– El evento {T } denota que la moneda sali´ o cruz – El evento {H, T } denota que la moneda sali´o cara o cruz Si la moneda es insesgada (resultados equiprobables), definimos: P(∅) = 0, P({H}) = P({T }) = 12 , y P({H, T }) = 1 c 2016 Blai Bonet

Despu´es de realizar el experimento, podemos decir cuando un evento es cierto o falso. Si el resultado del experimento es ω, decimos que el evento E es cierto si ω ∈ E. Si ω ∈ / E, el evento E es falso

c 2016 Blai Bonet

Funci´ on (medida) de probabilidad

La funci´on de probabilidad P es una funci´ on P : F → [0, 1] que asigna probabilidaddes a los eventos y debe satisfacer:

Probabilidad del evento complemento

Considere un evento E que denota un posible resultado del experimento

P1. P(Ω) = 1 P2. para toda colecci´ on {Ei }i de eventos que sean disjuntos dos a dos (i.e. Ei ∩ Ej = ∅ para todo 1 ≤ i < j ≤ n): P(∪ni=1 Ei ) = P(E1 ) + P(E2 ) + · · · + P(En )

P(E) es la probabilidad de que dicho resultado suceda mientras que P(E c ), donde E c = Ω \ E, es la probabilidad de que no suceda Por la aditividad de la medida y la propiedad P1: P(E c ) = P(Ω) − P(E) = 1 − P(E)

Por lo tanto, 1 = P(Ω) = P(Ω) + P(∅) =⇒ P(∅) = 0

c 2016 Blai Bonet

c 2016 Blai Bonet

Ejemplo: Lanzar dos monedas

Independencia de dos eventos

Ahora considere dos monedas insesgadas e “independientes” Definimos:

Considere un espacio (Ω, F, P) y dos eventos E1 , E2 ∈ F E1 es independiente de E2 si conocer alguna informaci´on sobre la ocurrencia de E1 no altera nuestra creencia sobre la ocurrencia de E2 (y vice versa)

– Ω = {HH, HT, T H, T T } – F = {E ⊆ Ω} – P(E) = 14 para todo evento at´ omico E (la probabilidad de los dem´as eventos queda determinada por la propiedad P2) Probabilidad primera moneda salga cara: P({HH, HT }) = Probabilidad segunda moneda salga cara: P({HH, T H}) =

1 2

E1 es independiente de E2 ssi P(E1 ∩ E2 ) = P(E1 ) P(E2 ) En el ejemplo de las dos monedas, considere E1 = {HH, HT } y E2 = {HH, T H}, los eventos que la primera y segunda moneda salen cara respectivamente:

1 2

P(E1 ∩ E2 ) = P({HH}) =

1 4

=

1 2

×

1 2

= P(E1 ) P(E2 )

c 2016 Blai Bonet

c 2016 Blai Bonet

Independencia de m´ as de dos eventos Dos formas de definirla Considere la colecci´ on E = {E1 , E2 , . . . , En } de eventos: – E es independiente dos a dos ssi Ei es independiente de Ej para cualquier (i, j) con i 6= j; i.e. P(Ei ∩ Ej ) = P(Ei ) P(Ej ) para todo 1≤i 0 cuando mH + mT > 2n c 2016 Blai Bonet

c 2016 Blai Bonet

Independencia de variables aleatorias

Propiedades de esperanza E[αX + βY ] =

P

=

P

Dos variables aleatorias X, Y definidas sobre el mismo espacio (Ω, F, P) son independientes ssi

= α

P(X = x, Y = y) = P(X = x) × P(Y = y)

ω∈Ω

[αX(ω) + βY (ω)] P({ω})

[αX(ω) P({ω}) + βY (ω) P({ω})] P ω∈Ω X(ω) P({ω}) + β ω∈Ω Y (ω) P({ω})

ω∈Ω

P

= αE[X] + βE[Y ]

para todo x, y ∈ R Si Y = g(X) para g : R → R, entonces Y es variable aleatoria y

Una colecci´on {Xi }ni=1 de variables aleatorias definidas sobre el mismo espacio es independiente ssi Qn P(∩ni=1 Xi = xi ) = i=1 P(Xi = xi ) para todo x1 , x2 , . . . , xn ∈ R c 2016 Blai Bonet

E[Y ] =

P

y

yP(Y = y) =

P

x

g(x)P(X = x)

Si X e Y son independientes, P xyP(X = x, Y = y) = x,y xyP(X = x)P(Y = y) P P = x xP(X = x) y yP(Y = y) = E[X] E[Y ]

E[XY ] =

c 2016 Blai Bonet

P

x,y

Variables aleatorias indicadoras

Cota para la probabilidad de la uni´ on Considere una colecci´on de eventos {E1 , E2 , . . . , En }

Una variable aleatoria X : Ω → R tal que Rg(X) = {0, 1} se llama variable aleatoria indicadora Calculemos su esperanza:

Queremos obtener una cota para P(∪1≤i≤n Ei ) Defina A1 = E1 , A2 = E2 \ E1 , . . . , Ai = Ei \ (E1 ∪ · · · ∪ Ei−1 )

E[X] =

P

=

P

ω∈Ω X(ω) P({ω})

Los conjuntos {Ai }i son disjuntos dos a dos y ∪1≤i≤n Ei = ∪1≤i≤n Ai

ω∈Ω,X(ω)=1 P({ω})

= P({ω ∈ Ω : X(ω) = 1})

P(∪1≤i≤n Ei ) = P(∪1≤i≤n Ai ) =

X

P(Ai ) ≤

1≤i≤n

= P(E) donde E es el evento E = {ω ∈ Ω : X(ω) = 1} = {X = 1}

X

P(Ei )

1≤i≤n

ya que P(Ai ) ≤ P(Ei ) porque Ai ⊆ Ei

c 2016 Blai Bonet

c 2016 Blai Bonet

Esperanza de variables enteras

Regla de probabilidad total

Considere una v.a. entera no-negativa X; i.e. con rango {0, 1, 2, . . .} E[X] =

P

x≥0 x P(X

= x) =

P

x≥1 x P(X

Consider un evento A y una colecci´on de eventos {Bi }i que particionan el espacio muestral Ω

= x) P(A) =

X

P(A ∩ Bi )

i

= 1) = 2) = 3) = 4) .. .

P(X = 2) P(X = 3) P(X = 4) .. .

P(X = 3) P(X = 4) .. .

P(X = 4) .. .

··· .. .

P(X ≥ 1)

P(X ≥ 2)

P(X ≥ 3)

P(X ≥ 4)

···

P(X P(X P(X P(X

La prueba es sencilla ya que la colecci´on de eventos {A ∩ Bi }i es una colecci´on disjunta dos a dos

Por aditividad de P, X

E[X] = c 2016 Blai Bonet

P

x≥1 P(X

≥ x)

P(A ∩ Bi ) = P(∪i (A ∩ Bi )) = P(A ∩ ∪i Bi ) = P(A ∩ Ω) = P(A)

i

c 2016 Blai Bonet

Desigualdad de Markov La desigualdad de Markov permite acotar la probabilidad de una variable X no negativa utilizando la esperanza de X Para todo t > 0, P (X ≥ t) ≤

E[X] t

Ejemplos de an´ alisis probabil´ıstico

Sea X : Ω → R una v.a. no negativa definida sobre (Ω, F, P) E[X] =

X x≥0



∞ X x=t

x P(X = x) =

t−1 X

x P(X = x) +

x=0

x P(X = x) ≥ t

∞ X

∞ X

x P(X = x)

x=t

P(X = x) = t P(X ≥ t)

x=t

c 2016 Blai Bonet

c 2016 Blai Bonet

Paradoja del d´ıa de nacimiento 1/3

Paradoja del d´ıa de nacimiento 2/3 Ahora acotaremos P(Bm ) donde Bm es el evento que los d´ıas de nacimiento de las primeras m personas son todos distintos

¿Cu´antos estudiantes deben haber en un sal´ on para que la probabilidad que dos de ellos nazcan el mismo d´ıa sea > 12 ?

Observe Bm = Bm−1 ∩ Am donde Am es el evento que las T personas m 1, . . . , m − 1 nacen en d´ıas distinto a bm . Entonces, Bm = i=1 Ai

Asumiremos que el a˜ no tiene n = 365 d´ıas (obviando a˜ nos bisiestos) e indizamos a las personas con los enteros 1, 2, . . . , k Sea bi ∈ {1, 2, . . . , n} el d´ıa de nacimiento de la persona i. Asumimos P(bi = r) = 1/n y P(bi = r & bj = s) = 1/n2 para todo i, j, r, s La probabilidad que las personas i y j nazcan el mismo d´ıa es Pn Pn 1 P(bi = bj ) = r=1 P(bi = r & bj = r) = r=1 n2 =

Para responder la pregunta queremos calcular el n´ umero k de personas tal que 1 − P(Bk ) ≥ 12 . Es decir, k tal que P(Bk ) ≤ 12 P(Bk ) = P(B1 ) × P(A2 |B1 ) × P(A3 |B2 ) × · · · × P(Ak |Bk−1 ) = 1×

n−1 n

×

n−2 n

× ··· ×

n−k+1 n

= 1 × (1 − n1 ) × (1 − n2 ) × · · · × (1 − ≤ e−1/n × e−2/n × · · · × e−(k−1)/n

1 n

1

= e− n

Pk−1 i=1

i

= e−k(k−1)/2n ≤

k−1 n )

[α < 1 =⇒ 1 − α ≤ e−α ]

1 2

cuando −k(k − 1)/2n ≤ ln(1/2). Para n = 365, basta k ≥ 23 c 2016 Blai Bonet

c 2016 Blai Bonet

Paradoja del d´ıa de nacimiento 3/3 Resolvamos ahora usando variables indicadoras y la linealidad de la esperanza. Considere la v.a. indicadora Xij = II{bi = bj }: E[Xij ] = P(Xij = 1) = P(bi = bj ) = 1/n Sea X el n´ umero de pares P de personas distintas con el mismo d´ıa de nacimiento: i.e. X = 1≤i