CAPITULO VI PROCESOS ALEATORIOS Y RUIDO

CAPITULO VI PROCESOS ALEATORIOS Y RUIDO 6.1.-INTRODUCCION Hasta ahora se han estudiado las señales determinísticas discretas y continuas; estas señal...
87 downloads 2 Views 358KB Size
CAPITULO VI PROCESOS ALEATORIOS Y RUIDO

6.1.-INTRODUCCION Hasta ahora se han estudiado las señales determinísticas discretas y continuas; estas señales son aquellas que pueden definirse perfectamente para todo t. Sin embargo, la teoría de las comunicaciones presenta como elemento fundamental la aleatoreidad ya que el mensaje no se conoce de antemano o lo que es lo mismo no es determinístico. Adicionalmente existen perturbaciones aleatorias en las transmisiones que se conocen como "ruido". En cualquiera de los dos casos es necesario conseguir un modelo matemático que permita representar estos fenómenos con el fin de analizar su comportamiento frente a los sistemas de comunicaciones. Basándose en la experimentación, se pueden encontrar ciertas regularidades en los procesos aleatorios que permitirán describirlos estadísticamente y en muchos casos esta descripción nos proporcionará información sobre la densidad espectral de potencia de la señal aleatoria. Con esta última herramienta seremos capaces de analizar el efecto del ruido en cada sistema de comunicación y la calidad final del mensaje recibido. Comenzaremos repasando brevemente las nociones de probabilidad, variables aleatorias, funciones de densidad probabilística, etc., antes de entrar a la caracterización de los procesos aleatorios. 6.2.-REPASO DE PROBABILIDADES Existen fenómenos físicos que presentan cierta regularidad estadística y cuyo modelo determinístico equivalente sería altamente complicado. Por ejemplo si lanzamos una moneda y conociésemos la altura desde la cual se lanza, la ecuación del movimiento de la mano que la lanza, peso, geometría, composición de la moneda, temperatura, gravedad, etc., se podría determinar si saldrá cara o sello; pero es evidente que, dado que el número de variables a manejar es tan grande, es preferible utilizar una descripción probabilística y decir, por ejemplo, que existe 50% de probabilidad de que la moneda, si está bien construída, caiga del lado cara y 50% que caiga del lado sello. En un experimento realizado un número suficiente de veces (n), se llamará espacio muestral al conjunto formado por todos los posibles resultados o eventos. La probabilidad de ocurrencia de un evento A se define como:

donde nA es el número de veces que ocurre A. Hay casos donde no es necesario realizar el experimento para determinar la probabilidad de un evento dado; por ejemplo, en una moneda normal P(cara)=P(sello)=0.5. En este caso se define la probabilidad de ocurrencia del evento A como:

Supongamos ahora que tenemos un espacio muestral compuesto por N eventos; si la ocurrencia de uno imposibilita la de cualquier otro, se dice que son mutuamente excluyentes en cuyo caso, si elegimos dos eventos A1 y A2, la probabilidad de que ocurra uno de los dos vendrá dada por: P( A1 ó A2 ) = P( A1) + P( A2) Un ejemplo de esto sería el lanzamiento de un dado; las seis salidas posibles son eventos mutuamente excluyentes. Existen otros casos que corresponden a eventos no excluyentes; un ejemplo podría verse en el siguiente conjunto de interruptores:

El paso de corriente entre a y b se produce cuando cualquiera de los dos interruptores está cerrado; esto conduce a calcular la probabilidad de paso de esta corriente I como : P ( S1 cerrado ó S2 cerrado) Pero en este caso por no ser estos eventos mutuamente excluyentes, hay que restar la probabilidad de que ocurran juntos ; es decir: P( I ) = P(S1 cerrado) + P (S2 cerrado) - P(S1 cerrado y S2 cerrado) En general , para eventos cualesquiera no excluyentes: P( A1 ó A2 ) = P( A1) + P( A2) - P( A1 y A2 )

En ciertos experimentos pueden ocurrir simultáneamente 2 o más eventos. Se define la probabilidad conjunta de dos eventos A y B como:

donde nAB es el número de veces que A y B ocurren juntos. Si la ocurrencia del evento B depende del evento A, se puede definir probabilidad condicional como:

de donde se obtiene el Teorema de Bayes que establece que:

Si la ocurrencia de un evento A no afecta la ocurrencia de un evento B, se dice que A y B son eventos independientes en cuyo caso: P(A/B)=P(A) y P(B/A)=P(B) y P(A y B )= P(A) P(B) Ejemplos: 1.- En una caja se tienen dos monedas: La moneda 1 tiene 2 sellos y la moneda 2 tiene cara y sello con P(cara) = 1/3 y P(sello) = 2/3. Se saca una moneda se lanza 1 vez y sale sello, ¿cuál es la probabilidad de que si se vuelve a lanzar salga de nuevo sello?

2.- Si se tiene el siguiente sistema de relés, determine la probabilidad de que entre A y B fluya una corriente, conociendo que la probabilidad de que cada relé esté cerrado es p.

6.3.-REPASO DE VARIABLES ALEATORIAS Y FUNCIONES PROBABILISTICAS Cuando se tienen experimentos cuyas salidas son números reales, a la regla que asigna un número a cada salida del experimento se le llama variable aleatoria (v.a). Las variables aleatorias se clasifican en : -Variables aleatorias discretas: Aquellas que pueden tomar un número contable de valores distintos finitos o infinitos. Ej: X es una v.a que representa el número de caras que salen al lanzar una moneda 3 veces. X solo puede tomar los valores 0,1,2,3. -Variables aleatorias contínuas: Aquellas que pueden tomar cualquier valor en un rango dado del eje real. Ej: X es una v.a que representa el valor de voltaje de una señal ruidosa. En este caso, X puede tomar cualquier valor de la recta real. Para una v.a X, sea discreta o continua, se define la Función de Distribución Acumulativa ( F.D.A ) F(x), como la probabilidad de que X tome valores menores que dicho x. Es decir: F(x) = P [X≤x] Donde se cumple que : 1º. 0 ≤ F(x) ≤ 1 2º. Para x1≤ x2 , F (x1) ≤ F (x2) es decir dF/dx ≥ 0 3º. P [ x1< X ≤ x2 ]= F (x2) - F (x1)

4º. F( -∞) =0 5º. F(∞) =1 Si la v.a es discreta se define la Función Frecuencia P(xj) como la probabilidad que la v.a X tome el valor xj . La relación entre esta función y F(x) viene dada por las siguientes propiedades:

Si la v.a es contínua se define la Función Densidad de Probabilidad f.d.p p(x) como

Sus propiedades son:

Si se utilizan deltas de Dirac, es posible definir una f.d.p para variables aleatorias discretas de la siguiente forma: De esta forma se puede unificar el tratamiento de las v.a contínuas y discretas. Ahora bien, se han definido funciones probabilísticas que permiten caracterizar el comportamiento de una variable aleatoria. Sin embargo, muchas veces estaremos interesados en analizar simultáneamente dos o mas v.a. Esto conduce al concepto de Función Densidad Conjunta que para dos v.a, llamaremos pxy(x,y). Esto nos permitirá calcular por ejemplo, la probabilidad de que las variables aleatorias tomen valores en determinados rangos simultáneamente. Así:

También se pueden calcular las densidades marginales px(x) y py (y) de la siguiente forma:

6.4.- PROMEDIOS ESTADISTICOS Cuando se tiene una señal determinística, se puede definir una función que la caracterice para todo tiempo. Sin embargo, si dicha señal representa, por ejemplo, el voltaje en un punto de una red, en la práctica se prefiere tener otro tipo de información más manejable como por ejemplo la potencia promedio. Del mismo modo para señales aleatorias, en vez de trabajar con las funciones probabilísticas, muchas veces se utilizan datos más prácticos conocidos como promedios estadísticos. Estos parámetros serán muy útiles porque, en muchos casos, tendrán relación con los parámetros eléctricos de las señales aleatorias de interés. El primer promedio a definir será la media, valor esperado o esperanza de una v.a X que se calcula como:

El valor esperado cumple con las siguientes propiedades: 1.- E(constante)=constante 2.-E(Kx)= KE(x) para K constante 3.- E(x+y)=E(x)+E(y)

Además de la media, existen otros promedios estadísticos como por ejemplo el momento n-ésimo de una v.a que se define como:

En particular el segundo momento será de gran importancia así como la varianza, que no es más que el segundo momento de la v.a referida a su media. Es decir:

A manera de ejemplo, y para ilustrar la importancia de la varianza de una v.a, imaginemos dos fábricas de bombillos que aseguran tener la misma vida media de su producto. Por ejemplo dos distribuciones uniformes alrededor de 1000, una de ancho 1000(Fábrica A) y otra de ancho 10(Fábrica B); al explorar más y calcular la varianza de las v.a, definidas como la duración de sus productos, se descubre que la de la fábrica A es mayor a la de la fábrica B. Esto lo que significa es que los productos de la fábrica A son menos confiables que los de la B, ya que a pesar de garantizar la misma duración media, la desviación alrededor de ésta es mayor que la de la fábrica B. Justamente, otra cifra de interés es la desviación standard sx, definida como la raíz cuadrada de la varianza, que representa la desviación que un valor tiene alrededor de la media de la distribución. Ejemplo: Se tienen 2 fábricas de bombillos que aseguran que la vida media de su producto es de 1.000 horas. Sin embargo, al investigar más se descubre que: a) El fabricante A produce N/2 bombillos que duran 500 horas y N/2 que duran 1.500. b) El fabricante B produce N bombillos cuya vida cumple con una distribución uniforme entre 975 y 1025. Es decir:

Y efectivamente ambos productos tienen una vida media de 1.000 horas; sin embargo, sabemos que la confiabilidad no puede ser la misma en ambas fábricas; por tanto necesitamos otro parámetro que permita elegir qué fábrica produce los mejores bombillos. Ese parámetro puede ser la varianza anteriormente definida. a. Fábrica A:

b) Fábrica B:

Esto indica que los productos de la fábrica B son mejores, ya que la varianza es menor que en el caso A. La varianza presenta las siguientes propiedades: 1º Varianza [constante] = 0 2º Varianza [kx] = k2 varianza [x] para k = constante 3º Varianza [x + y] = varianza [x] + varianza [y] solo sí x e y son independientes.

4º La raíz cuadrada de la varianza se le llama desviación standard (σx) y representa la desviación que un valor tiene de la media de la distribución. 5º P [(X-E(x)) > k σx] ≤ 1/k2 o la probabilidad de que la v.a. se aleje de la media k veces la desviación standard, es inversamente proporcional al cuadrado de k. Esta relación recibe el nombre de desigualdad de Chebyshev y establece un límite en la probabilidad de que una v.a. tome valores alejados de su media. Ejemplos: 1º Se transmite una señal S, modelada por una v.a uniformemente distribuida entre 0 y 2; esta se le agrega en el canal un ruido N que se modela por una v.a uniformemente distribuida entre 0 y 1. Determine a) El valor esperado de S+N b) El valor esperado de la potencia promedio de (S+N) sobre una resistencia de 2Ω Solución: a. E[Y] = E[S+N] = E [S] + E [N] = 1 + 0.5 = 1.5 2 b. Potencia promedio=E[ (S+N) ] /2

2.5.- PROMEDIOS ESTADISTICOS PARA MAS DE UNA VARIABLE ALEATORIA.

Si se tienen 2 variables aleatorias X, Y se definen sus momentos conjuntos como.

En particular el momento conjunto de primer orden E[xy] es de gran interés y recibe el nombre de correlación de X Y. También es importante la covarianza de las dos v.a. definida como:

Sus propiedades son:

1º Si E(xy)=0 se dice que X,Y son ortogonales 2º Si X e Y son independientes Cov (XY) = 0 3º Si Cov(XY) = 0 se dice que X y Y están decorrelacionadas. 4º Si X y Y están decorrelacionadas no necesariamente son ortogonales ni independientes. Ejemplo:Sea Z una v.a. uniformemente distribuida entre -1 y 1; se definen 2 nuevas v.a. X y Y como X = Z Y = Z2. Determine si X , Y están decorrelacionadas.

Cov (XY)= E [XY]-E[X]E[Y] = 0 => X, Y están decorrelacionadas pero no son independientes. 6.6.- DISTRIBUCIONES PROBABILISTICAS USUALES: 6.6.1.- Distribución Uniforme: Se utiliza en aquellas v.a. igualmente probables en un intervalo (a,b) y se define como:

La media de una variable X con esta distribución es: E[X] = 0.5(b+a) Su varianza resulta:

6.6.2.-Distribución Gausseana: Es una de las distribuciones más usadas debido al teorema del límite central que establece lo siguiente: Si se tiene una v.a. Y resultado de sumar M variables Xi con distribuciones arbitrarias, la distribución de Y se aproxima a gausseana cuando M crece, siempre que la contribución de cada variable Xi sea muy pequeña. Este teorema, por ejemplo, se aplica perfectamente al caso de ruido térmico el cual se forma con pequeñas contribuciones de movimiento de electrones. La función densidad de probabilidad para una v.a X con distribución gausseana se define como:

Donde: m es la media de la distribución, σ2 es la varianza y σ la desviación estandar

Cuando queremos determinar valores de probabilidad sobre una v.a. con esta distribución se necesita calcular: Pero esta integral no es de fácil resolución. Es por esto que se ha tabulado el valor Q(k) definido como:

Así por ejemplo si se desea determinar:

Hacemos el siguiente cambio de variable:

Ejemplo: Una v.a. gaussiana tiene E[ X] = 10 y σx = 1. Determine P [x ≥ 13]

Con la función Q(k) podemos determinar cualquier valor de probabilidad ya que:

Muchas veces se tabula 0.5 - Q(k) en vez de Q(k). Sin embargo esto no altera el método de calcular probabilidades. Ejemplo: Se tiene una v.a. gaussiana con media igual a 10 y varianza unitaria. Determine P[4≤ x ≤ 13].

m - k1σ = 4 = 10 - k1 => k1 = 6 m + k2 σ = 13 = 10 + k2 => k2 = 3 => P[4 ≤ x ≤ 13] = 0.5 - Q(6)+0.5 - Q(3) 6.6.3.- Distribución de Rayleigh

Esta distribución será muy útil en algunas representaciones del ruido pasabanda que afecta los sistemas de comunicaciones. Está descrita como:

Si se desea determinar P(x ≥ x0)

Ejercicio: Una v.a con distribución Rayleigh tiene σx2 = 7. ¿Cuál es el valor de la media? Solución:

6.6.4.- Distribución binomial: Si un experimento solo puede producir 2 resultados A y su complemento (no A)con probabilidad p y q=1-p respectivamente, y éste se realiza m veces, la probabilidad que A ocurra k de estas m veces vendrá dada por:

Donde el coeficiente binomial representa la cantidad de combinaciones de m elementos en los cuales k de ellos son A y el resto el complemento (no A). Por ejemplo: Si m=3 y k=1 tendremos

y en efecto existen 3 combinaciones donde A ocurre solo una vez, ya que: El coeficiente binominal se puede calcular con el triángulo de Pascal.

Ejemplo:

1º Una moneda normal se lanza 10 veces ¿cuál es la probabilidad de que salgan 4 caras?

A este tipo de pruebas se les llama de Bernoulli y es por esto que la distribución a veces recibe ese nombre. Los momentos de una v.a. X con esta distribución son: E(X)= p.m donde p=P(A) y m= Nº total de veces que se realiza la prueba. La varianza resulta igual a σ2=mpq. 6.6.5.- Distribución de Poisson: Cuando se realizan pruebas de Bernoulli , y se desea cuyos resultados pueden ser determinar la probabilidad de que en m pruebas A salga k veces, se utiliza la distribución binomial. Pero si el número de pruebas crece mucho en un problema donde P[A] es muy pequeña se prefiere utilizar la distribución de Poisson para el cálculo de probabilidades particulares. La función de probabilidad se expresa como:

Para esta distribución tanto la media como la varianza son iguales numéricamente a α: Ejemplo: En una central telefónica se han recibido 270 llamadas en 180 minutos, es decir, 1.5 llamadas por minuto. Si quisiéramos calcular la probabilidad de recibir 1, 2 ó 3 llamadas en los próximos 3 minutos debiéramos subdividir el tiempo total en subintervalos en los cuales ocurre o no ocurre llamada. Por ejemplo: A.- 3 minutos = 9 intervalos de 20 seg. La probabilidad de llamada en este caso sería:

Para evitar la probabilidad de 2 o más llamadas en cada subintervalo es conveniente hacerlo cada vez más pequeño y en ese caso la probabilidad de llamada baja pero n.p = cte. Es decir n-> ? p -> o pero np = cte. En este caso:

2º Un fabricante produce artículos con probabilidad de ser defectuoso igual a 0.001. ¿Cuál es la probabilidad de que en un lote de 500 artículos ninguno salga defectuoso?

y es más cómodo trabajar con Poisson. 3º La probabilidad de que un automóvil choque con otro es p = 0,0001. Si a cierta hora pasan 1.000 carros. ¿Cuál es la probabilidad que ocurran 2 o más accidentes en dicho período?.

6.7.- PROCESOS ALEATORIOS Uno de los objetivos de la materia Comunicaciones I, es lograr una descripción de las señales aleatorias bien sea que estas representen mensaje o ruido. Para lograrlo comenzaremos definiendo un proceso aleatorio como el conjunto de funciones temporales que resultan de un experimento particular, es decir, cada vez que se realiza el experimento, se produce como salida una determinada señal. La aleatoreidad radica en saber cual de todas las funciones saldrá. Además, en cada instante de tiempo tk, se puede definir una v.a que podría llamarse xtk.Queda claro que la diferencia fundamental entre una v.a y un proceso aleatorio es la dependencia con la variable tiempo.

Ejemplo: Suponga un proceso estocástico definido como x(t)= at donde a está uniformemente distribuída entre 0 y 1. Cada vez que se realiza el experimento, la salida es una recta de pendiente diferente. Para un tiempo dado, digamos t=t0, se tendrá una v.a xt0= at0, que puede tomar valores entre 0 y t0. Una forma de caracterizar el proceso x(t) es a través de la definición de una función conjunta de infinitas v.a correspondientes a tiempos distintos tk. Afortunadamente, para la mayoría de los problemas prácticos, bastará para su descripción funciones de una o a lo sumo de dos v.a. Esto estará asociado al tipo de estacionaridad que cumpla el proceso estudiado; por esto a continuación presentaremos conceptos y funciones esenciales para caracterizar los procesos aleatorios. 6.8.- ESTACIONARIDAD Supongamos un proceso aleatorio definido en un intervalo de tiempo dado dentro del cual definimos a su vez los instantes t1, t2 ,..., tn . Para caracterizar el proceso, necesitaríamos una función probabilística de orden n : p x ( t 1) x ( t 2) .........x ( t n) ( x ( t 1) , x ( t 2) , ........, x ( t n) )

Diremos que un proceso aleatorio es estacionario en el sentido estricto, si sus propiedades estadísticas no cambian con un desplazamiento del origen temporal. Es decir: p x ( t 1) .........x ( t n) ( x ( t 1) ,

........., x ( t n) )

= p x ( t 1+ τ)

........x ( t n+ τ) ( x ( t 1+ τ) , ......., x ( t n+ τ) )

Si esta igualdad se cumple solo hasta un orden m, se dice que el proceso es estacionario de orden m lo que incluye la estacionaridad de todos los órdenes menores. En la práctica los procesos más frecuentes se pueden modelar como estacionarios (aunque sea en pequeñísimos intervalos de tiempo) por lo menos hasta de segundo orden, y como sus propiedades más importantes se describen muy bien con el primero y segundo momento, trabajaremos usualmente con estacionaridad de orden 2. Definamos la función de autocorrelación de dos v.a x(t1) y x(t2), definidas dentro de un proceso x(t) para dos instantes t1 y t2 como: R x ( t1 ) x ( t 2 ) = ∫∫ x ( t1 ) x ( t 2 )p x ( t1 ) x ( t 2 ) ( x ( t1 ), x ( t 2 ))dx ( t1 )dx ( t 2 ) −∞

Esta función es muy útil porque, además de que nos dará idea del comportamiento temporal de x(t), en muchos casos nos proporcionará, al transformarla según Fourier, la densidad espectral de potencia. Si el proceso es estacionario de orden 1, la media de la v.a es constante ( no depende del tiempo). Si el proceso es estacionario de orden 2, además de cumplirse lo anterior, la correlación entre dos v.a dependerá, no de la ubicación absoluta de cada una, sino de la distancia entre ellas. La demostración de ésto, se basa en que, para un proceso estacionario de orden 2, se cumple:

Por lo tanto, Rx(t1,t2)= Rx(t1+ ∆, t2 + ∆ ). Si seleccionamos ∆= - t1, Rx(t1,t2)= Rx(0, t2 - t1 ) = Rx(τ). En ese caso podemos escribir: Rx(τ) = E [ x(t) x(t- τ) ] Definiremos ahora, un proceso estacionario en el sentido amplio, como aquel en el que se cumple: 1º.- E [ x(t) ] = mx =constante 2º.- E [ x(t) x(t- τ) ] = Rx(τ) Es evidente que un proceso estacionario de orden 2, lo será en sentido amplio, sin embargo, esto último no garantiza la primera condición. La función de autocorrelación de un proceso estacionario en el sentido amplio cumple las siguientes propiedades: a) Rx(0) = E [ x2(t) ] b) Rx(τ) = Rx( - τ) c) | Rx(τ) | ≤ Rx( 0 )

d) La graficación de Rx(τ) puede darnos información sobre el comportamiento temporal del proceso. Por ejemplo : Si se tienen las siguientes funciones de autocorrelación para dos procesos diferentes X1 y X2 :

Se observa que el proceso X1(t) fluctúa más lentamente que el proceso X2(t) ya que la correlación de este último se anula más rápidamente. En general , se dice que un proceso tiene un tiempo t0 de decorrelación si Rx(t0) = 0.01 Rx( 0 ). Ejemplo 1: Sea x(t) el proceso descrito como x(t)= A Cos (ω0t + Θ) , donde A y ω0 son constantes y Θ está uniformemente distribuído entre 0 y 2π. Determine la media y la autocorrelación del proceso.

Ejemplo 2: Sea x(t)= at donde a está uniformemente distribuído entre 0 y 1. Determine la fdp de primer orden del proceso px(t) (x(t)) En este caso es más fácil calcular la F.D.A ( Fx(t) (x(t))) y luego derivarla para obtener la fdp ( px(t) (x(t))). Fx(t) (x(t)) = P [ X(t)