Sunteți pe pagina 1din 25

TABLA DE CONTENIDO

INTRODUCCIÓN.................................................................................................................................2
PROBABILIDAD Y ESTADÍSTICA EN COMUNICACIONES.....................................................................3
PROBABILIDAD Y ESPACIO MUESTRAL..........................................................................................3
VARIABLES ALEATORIAS Y FUNCIONES DE PROBABILIDAD...........................................................5
PROMEDIOS ESTADISTICO.............................................................................................................8
EL PROMEDIO CONJUNTO.............................................................................................................8
MODELOS DE PROBABILIDAD........................................................................................................9
DEFINICIÓN DE PROCESOS ALEATORIOS.........................................................................................11
PROCESO ESTACIONARIO.................................................................................................................13
ESTACIONARIDAD DÉBIL O DE SENTIDO AMPLIO........................................................................13
DISTRIBUCIONES MULTIVARIABLES.................................................................................................14
DISTRIBUCIÓN DE PROBABILIDAD CONJUNTA DISCRETA............................................................14
FUNCIÓN DE DISTRIBUCIÓN ACUMULADA.................................................................................15
FUNCIÓN DE DISTRIBUCIÓN ACUMULADA BIVARIADA DISCRETA..............................................16
FUNCIÓN DE PROBABILIDAD MARGINAL....................................................................................17
FUNCIÓN DE PROBABILIDAD CONDICIONAL...............................................................................17
VARIABES ALEATORIAS INDEPENDIENTES...................................................................................17
TEOREMA DEL LÍMITE CENTRAL......................................................................................................19
CONCLUSIÓN....................................................................................................................................22
GLOSARIO DE TÉRMINOS.................................................................................................................23
BIBLIOGRAFIA..................................................................................................................................24

1
INTRODUCCIÓN

En este documento trataremos de la probabilidad y estadística, temas muy importantes en


toda disciplina, ya que es imposible estar completamente seguro de los valores que se
obtienen a través de mediciones. En la comunicación se producen señales aleatorias
como ruido no deseado y como formas de onda de información que se desean. Al carecer
de un conocimiento detallado de la variación de tiempo de una señal aleatoria, debemos
hablar en cambio en términos de probabilidad y propiedades estadísticas.

Los temas principales incluyen probabilidades, variables aleatorias, promedios


estadísticos y modelos de probabilidad importantes. En casi todos los aspectos de la vida
se presentan situaciones en donde el comportamiento de un fenómeno o evento no puede
ser predicho, por esto es necesario estudiar los procesos aleatorios, para ello
mencionaremos algunas definiciones.

Se dice que las señales cuyos valores pueden especificarse de manera exacta son
“determinísticas”. Las señales determinísticas no siempre pueden expresarse en forma
explícita, pero si es posible expresarlas, dentro de ciertos límites más bien amplios, en
términos de sumatorias de funciones conocidas de manera explícita (como las series de
Fourier).

El uso de estas señales ha desempeñado, hasta aquí, un importante papel en nuestro


análisis de los sistemas de comunicación. Ahora veremos métodos para describir señales
no determinísticas o “aleatorias”. Para hacerlo, se expondrán algunos conceptos básicos
de la teoría de la probabilidad. El enfoque sobre la probabilidad será selectivo. Dado que
solo interesan algunas aplicaciones específicas a los sistemas de comunicación.

2
PROBABILIDAD Y ESTADÍSTICA EN
COMUNICACIONES

En este documento trataremos de la probabilidad y estadística, temas muy importantes en


toda disciplina, ya que es imposible estar completamente seguro de los valores que se
obtienen a través de mediciones. En la comunicación se producen señales aleatorias
como ruido no deseado y como formas de onda de información que se desean. Al carecer
de un conocimiento detallado de la variación de tiempo de una señal aleatoria, debemos
hablar en cambio en términos de probabilidad y propiedades estadísticas.

Los temas principales incluyen probabilidades, variables aleatorias, promedios


estadísticos y modelos de probabilidad importantes. En casi todos los aspectos de la vida
se presentan situaciones en donde el comportamiento de un fenómeno o evento no puede
ser predicho, por esto es necesario estudiar los procesos aleatorios, para ello
mencionaremos algunas definiciones.

PROBABILIDAD Y ESPACIO MUESTRAL

La teoría de la probabilidad establece un marco matemático para el estudio de los


fenómenos aleatorios. La teoría no trata de la naturaleza de los procesos aleatorios en sí,
sino más bien con sus manifestaciones observables experimentalmente. En
consecuencia, discutiremos la probabilidad aquí en términos de eventos asociados con
los resultados de los experimentos.
A. Probabilidad y eventos

La probabilidad de un evento A, denotada por P(A), puede definirse en términos de la


frecuencia de ocurrencia relativa de A qué ocurre con un número N de pruebas.
P ( A )=N A /N N → ∞ (1)

Donde NA es el número de veces que A ocurre en N pruebas.

El límite en la ecuación, se usa para indicar que, si N es muy grande, entonces la


desviación esperada de la razón N A / N de una constante se vuelve muy pequeña.
Esto se llama en ocasiones “Ley empírica de números grandes” y concuerda con la idea
intuitiva de probabilidad. Cada probabilidad es un numero negativo delimitado por
0 ≤ P( A)≤ 1

Donde P ( A )=0 si el evento A es un evento nulo (nunca ocurre) y P ( A )=1 si es un


evento seguro (siempre ocurre)

B. Muestra de espacio y teoría de probabilidad

El modelo sistemático de un experimento casual permite que el espacio muestral S


denote el conjunto de resultados y sea A dividido en puntos de muestra s 1 , s2 , … , s n .
S={s 1 , s2 , … , s n }

3
La figura 1 muestra el espacio muestral y las relaciones entre A, B y C en forma de un
diagrama de Venn. B y C son eventos excluyentes, mientras que A contiene un punto en
común con B y C.

Otros eventos pueden describirse mediante combinaciones particulares de subconjuntos


de eventos, como sigue:
El evento de unión A + B (simboliza A ∪B ).
El evento de intersección AB (simboliza A ∩B )
Axiomas fundamentales:
P ( A ) ≥ 0 para cualquier evento A en S (2 a)
P ( S )=1 (2 b)
A
A
P(¿¿ 2)si A 1 A2 =∅ (2 c)
P(¿ ¿1)+¿
P ( A1 + A2 ) =¿

El tercer axioma [2 c ] se generaliza para 3 o más eventos


M
P ( A 1+ A 2 +…+ A M )=∑ P ( A i )=1(3)
i=1

A veces nos preocuparemos por la no ocurrencia de un evento. El evento "no A" se


llama el complemento de A
A
P(¿¿ C)=1−P ( A ) (4)
¿

Finalmente, considere los eventos A y B que no son mutuamente exclusivos, entonces


el axioma (2c) no se aplica. La probabilidad del evento A + B esta dado por
P ( A+ B )=P ( A ) + P ( B ) −P ( AB ) (5)

C. Probabilidad condicional e independencia estadística

La probabilidad de que ocurra un evento A, dado que también ocurrido un evento B, se


denota por

4
P( AB)
P ( A BA )= (6)
P( B)

Intercambiando A y B en la ecuación (6) produce P ( B AA ) =P( AB)/ P( A), y nosotros de


ese modo obtener dos relaciones para la probabilidad, es decir,

P ( AB )=P ( A BA ) P ( B )=P ( B AA ) P ( A ) (7)

Teorema de Bayes
P ( B ) P ( A BA )
P ( B AA ) = (8)
P( A)

Se dice que los eventos A y B son estadísticamente independientes cuando no


dependen el uno del otro, como se indica en

P ( A BA )=P ( A ) P ( B AA ) =P ( B ) ( 9)

Insertando la ecuación (9) en la (7)

P ( AB )=P ( A ) P ( B ) (10)

Entonces la probabilidad conjunta de eventos estadísticamente independientes es igual


al producto de las probabilidades de eventos individuales.

VARIABLES ALEATORIAS Y FUNCIONES DE PROBABILIDAD

El lanzamiento de monedas y otros juegos de azar son temas naturales y fascinantes para
cálculos de probabilidad. Pero los ingenieros de comunicación están más preocupados
por procesos aleatorios que producen resultados numéricos: el valor instantáneo de un
voltaje de ruido, el número de errores en un mensaje digital, y así
sucesivamente. Manejamos tales problemas al definir una variable aleatoria. Una variable
aleatoria es una regla o relación, denotada por X, que asigna un número real X (s) a cada
punto en el espacio de muestra S. Una variable discreta puede tomar sólo un número
finito o contable de valores. Una variable continua puede tomar infinitamente muchos
valores correspondientes a los puntos en un intervalo de recta.

El nombre de discreta se refiere a las brechas discretas entre los posibles valores que la
variable puede tomar. Variables como el número de miembros de una familia,
el número de ventas de autos nuevos y el número de llantas defectuosas devueltas para
cambio son todos ellos ejemplos de variables discretas. Por el contrario, variables como la
estatura, peso, tiempo, distancia y volumen son continuas porque pueden tomar valores
en cualquier punto a lo largo de un intervalo de recta. Para cualesquier dos valores que se
escojan, un tercer valor siempre puede hallarse entre ellos. [2]

A. Distribuciones discretas de probabilidad

5
El conjunto de pares ordenados ( x , f (x)) es una función de probabilidad, una función
de masa de probabilidad o una distribución de probabilidad de la variable aleatoria
discreta X si, para cada resultado x posible
1. f ( x ) ≥ 0,
2. ∑ f ( x ) =1
x
3. P ( X=x )=f ( x )

La función de distribución acumulativa (o CDF) F( x ) de una variable aleatoria


discreta es.

F ( x )=P ( X ≤ x )=∑ f ( t ) (11)


t≤x
Para el ejemplo anterior tenemos que la función de distribución acumulativa de x es

{
0, para x< 0
68
, para 0 ≤ x< 1
F ( x )= 95
187
, para 1 ≤ x<2
190
1, para x ≥2

B. Distribuciones de probabilidad continua

La función f (x) es una función densidad de probabilidad (o PDF) para la variable


aleatoria continua X, definida en el conjunto de números reales, si
1. f ( x ) ≥ 0, para toda x ∈ R

2. ∫ f ( x)dx=1
−∞

3. P ( a< X < b )= ∫ f (x ) dx
−∞

La función de distribución acumulativa (o CDF) F( x ) , de una variable aleatoria


continua X con función de densidad f (x) , es.
x
F ( x )=P ( X ≤ x )= ∫ f ( t ) dt(12)
−∞
de la definición anterior se puede describir los dos resultados,

6
dF( x )
P ( a< X < b )=F ( b )−F ( a ) y f ( x ) =
dx
sí existe la derivada.

C. Distribuciones de probabilidad conjunta

Si X y Y son dos variables aleatorias discretas, la distribución de probabilidad para sus


ocurrencias simultáneas se representa mediante una función con valores f (x, y), para
cualquier par de valores f (x , y ) dentro del rango de las variables aleatorias X y Y. Se
acostumbra a referirse a esta función como la distribución de probabilidad conjunta de X y
Y.
La función f ( x , y ) es una distribución de probabilidad conjunta o función de masa de
probabilidad de las variables aleatorias discretas X y Y, si

1. f ( x , y ) ≥ 0 para toda ( x , y ) ,
2. ∑ ∑ f ( x , y )=1,
x y
3. P ( X=x ,Y = y )=f ( x , y ) .
4.
Para cualquier región A en el plano xy, P [ ( X ,Y ) ∈ A ] =∑ ∑ f (x , y ).
A

La función f ( x , y ) es una función de densidad conjunta de las variables aleatorias


continuas X y Y, si
1. f ( x , y ) ≥ 0 para toda ( x , y ) ,
∞ ∞
2. ∫ ∫ f (x , y ) dx dy =1,
−∞ −∞

3. P [ ( X ,Y ) ∈ A ] =∫∫ f ( x , y ) dx dy , para cualquier región A en el plano xy.


A

Dada la distribución de probabilidad conjunta f (x , y ) de las variables aleatorias


discretas X y Y, la distribución de probabilidad g( x) sólo de X, se obtiene sumando
f (x, y)
sobre los valores de Y. De manera similar, la distribución de probabilidad h( y ) de sólo
Y se obtiene sumando f (x , y ) sobre los valores de X. Definimos g(x) y h(y) como
distribuciones marginales de X y Y, respectivamente.

Las distribuciones marginales sólo de X y sólo de Y son

g ( x ) =∑ f ( x , y ) y h ( x )=∑ f ( x , y )(13)
y x
para el caso discreto, y
∞ ∞
g ( x ) =∫ f (x , y ) y h ( x )=∫ f (x , y)(14)
−∞ −∞
para el caso continuo.

7
La función f ( x , y )/g ( x) , que es una función de y con x fija, satisface todas las
condiciones de una distribución de probabilidad. Como resultado, para poder calcular
probabilidades condicionales es importante que utilicemos el tipo especial de distribución
de la forma f ( x , y )/g (x) . Este tipo de distribución se llama distribución de
probabilidad condicional y se define como:
Sean X y Y dos variables aleatorias, discretas o continuas. La distribución condicional de
la variable aleatoria Y, dado que X =x , es

f (x, y)
f ( y xA )= siempre que g ( x ) >0 (15 a)
g(x )

De manera similar, la distribución condicional de la variable aleatoria X, dado que Y = y,


es

f (x , y)
f ( x yA ) = siempre que h ( y ) >0(15 b)
h( y)

Sean X y Y dos variables aleatorias, discretas o continuas, con distribución de


probabilidad conjunta f (x, y) y distribuciones marginales g( x) y h( y ) ,
respectivamente. Se dice que las variables aleatorias X y Y son estadísticamente
independientes si y sólo si

f ( x , y ) =g ( x ) h ( y ) (16)
Para toda ( x , y ) dentro de sus rangos.

PROMEDIOS ESTADISTICO

La función de densidad de probabilidad es útil para evaluar los valores más probables de
determinadas cantidades.

EL PROMEDIO CONJUNTO

Una de las principales aplicaciones de la teoría de la probabilidad es la evaluación del


valor promedio de una variable aleatoria, la cual representa algún fenómeno físico, o la
del valor promedio de alguna función de la variable aleatoria. El valor esperado, que
también se conoce como promedio conjunto
Sea X una variable aleatoria con distribución de probabilidad f(x). La media o valor
esperado de X es

μ=E { X }=∑ x f ( x ) (17)
x
Si X es discreta, y

μ=E { X }=∫ x f ( x ) dx ( 18 )
−∞
Si es continua.

8
La medida de variabilidad más importante de una variable aleatoria X se obtiene al
aplicar el teorema en g( X )= ( X−μ )2 . A causa de su importancia en estadística, se le
denomina varianza de la variable aleatoria X o varianza de la distribución de probabilidad
de X y se denota como Var (X ) o con el símbolo σ 2 o simplemente cuando queda
claro a qué variable aleatoria nos referimos.

Sea X una variable aleatoria con distribución de probabilidad f (x) y media μ . La


varianza de X es

σ =E [ ( X−μ ) ]=∑ ( x−μ ) f ( x )( 19 )
2 2 2

x
Si X es discreta, y

σ =E [ ( X−μ ) ]=∫ ( x−μ ) f ( x ) dx ( 20 )
2 2 2

−∞
Si X es continua.

La raíz cuadrada positiva de la varianza, σ , se llama desviación estándar de X.


La varianza de una variable aleatoria X es

σ 2 =E ( X )2−μ2 ( 21 )

MODELOS DE PROBABILIDAD
Existen numerosos tipos de distribuciones. Algunas de las más importantes empleadas en
los problemas de comunicaciones y de estadística se detallan a continuación

A. Distribución binomial

El número X de éxitos en n experimentos de Bernoulli se denomina variable aleatoria


binomial. La distribución de probabilidad de esta variable aleatoria discreta se llama
distribución binomial y sus valores se denotarán como b(x ; n , p) , ya que dependen del
número de ensayos y de la probabilidad de éxito en un ensayo dado.

Un experimento de Bernoulli puede tener como resultado un éxito con probabilidad p y un


fracaso con probabilidad q = 1 – p. Entonces, la distribución de probabilidad de la variable
aleatoria binomial X, el número de éxitos en n ensayos independientes, es

b ( x ; n , p )= n p x q n−x , x=0,1,2,… , n(23)


() x

La media y la varianza de la distribución binomial b ( x ; n , p ) son

E { x }=np( 24)

9
σ =npq(25)

B. Distribución de Poisson

La distribución de probabilidad de la variable aleatoria de Poisson X, la cual representa


el número de resultados que ocurren en un intervalo de tiempo dado o región específicos
y se denota con t, es
e−λt (λt )x
p ( x ; λt )= , x=0,1,2, … ,(26)
x!

donde λ es el número promedio de resultados por unidad de tiempo, distancia, área o


volumen y e=2.71828 …

Existe una tabla que contiene las sumatorias de la probabilidad de Poisson.


r
p ( x ; λt )=∑ p ( x ; λt ) (27)
x=0

Tanto la media como la varianza de la distribución de Poisson p ( x ; λt ) son λt

C. Distribución Uniforme

Una de las distribuciones continuas más simples de la estadística es la distribución


uniforme continua. Esta distribución se caracteriza por una función de densidad que es
“plana”, por lo cual la probabilidad es uniforme en un intervalo cerrado, digamos [A, B].

La función de densidad de la variable aleatoria uniforme continua A en el intervalo [A, B]


es

{
1
, A ≤ xB
f ( x ; A , B )= B− A (28)
0, en otro caso

La función de densidad forma un rectángulo con base B− A y altura constante


1
. Como resultado, la distribución uniforme a me nudo se conoce como
B−A
distribución rectangular. Sin embargo, observe que el intervalo no siempre es cerrado: [A,
B]; también puede ser (A, B)

Figura 3. Función de densidad para una variable aleatoria en el intervalo [1, 3]

10
La media y la varianza de la distribución uniforme son

A+ B
E { x }= (29)
2

B− A
¿
¿
¿2
¿
2
σ X =¿

D. Distribución gaussiana

La distribución de probabilidad continua más importante en todo el campo de la


estadística es la distribución normal. Su gráfica, denominada curva normal, es la curva
con forma de campana de la figura, la cual describe de manera aproximada muchos
fenómenos que ocurren en la naturaleza, la industria y la investigación. La distribución
normal a menudo se denomina distribución gaussiana en honor de Karl Friedrich Gauss.

Figura 4. La curva normal

La densidad de la variable aleatoria normal X, con media mX y varianza σ2X es


−1 2
(x− μ)
1 2
2σ X
n ( x ; μ , σ X )= e (31)
√ π σX
2

La media y la varianza de n ( x ; μ , σ X ) son μ y σ 2 X , respectivamente. Por lo


tanto, la desviación estándar es σ X .

1) Áreas bajo la curva

La dificultad que se enfrenta al resolver las integrales de funciones de densidad normal


exige tabular las áreas de la curva normal para una referencia rápida. Sin embargo, sería
inútil tratar de establecer tablas separadas para cada posible valor de m X y σ X .
Para la curva normal de la figura 5, es representada por el área de la región sombreada.

11
x2

P ( x1 < X < x2 ) =∫ n ( x ; μ , σ X ) dx
x1
x2 −1 2
(x−μ)
1 2

¿ ∫e 2σ X
dx
√2 π σ X x1

Figura 5. P ( x1 < X < x2 ) =¿ Área de la región sombreada

Por fortuna, podemos transformar todas las observaciones de cualquier variable aleatoria
normal X en un nuevo conjunto de observaciones de una variable aleatoria normal Z con
media 0 y varianza 1. Esto se puede realizar mediante la transformación

x−μ
Z= (32)
σX

La distribución de una variable aleatoria normal con media 0 y varianza 1 se llama


distribución normal estándar.

DEFINICIÓN DE PROCESOS ALEATORIOS

Los ‘procesos aleatorios’ son importantes porque en casi todos los aspectos de la vida se
presentan este tipo de situaciones en donde el comportamiento de un fenómeno o evento
no puede ser predicho, por tal motivo, solo puede especularse acerca de los posibles
efectos que tendrá. Además, la importancia de la probabilidad dentro de los procesos
aleatorios radica en que estos son una extensión de la probabilidad misma. La mayoría de
los procesos son dependientes
Un Proceso Aleatorio se define como el conjunto de señales provenientes de realizar un
determinado experimento o de un evento de la naturaleza. La naturaleza aleatoria del
experimento proviene del desconocimiento de cuál de las señales se obtendrá al realizar
el experimento. Para caracterizar los Procesos Aleatorios se definen diversas variables
aleatorias como la secuencia de valores de las diversas señales evaluadas en tiempos
específicos. Así se puede hablar de x(t1), x(t2), etc. Procesos Aleatorios pueden ser
continuos o discretos. Los casos especiales para Procesos Aleatorios mayormente
utilizados en el ámbito de las comunicaciones son los Procesos Estacionarios y los
Procesos Ergódicos.

12
Una variable aleatoria transforma las salidas de un experimento aleatorio a un conjunto de
números reales. En un sentido similar, un proceso aleatorio puede ser visto como una
transformación de las salidas de un experimento aleatorio a un conjunto de ondas o
funciones del tiempo. Mientras que en algunas aplicaciones puede no ser posible definir
explícitamente el experimento aleatorio y las transformaciones a ondas asociadas
(eléctricas, por ejemplo), todavía se pueden utilizar los procesos aleatorios como un
modelo para caracterizar a las formas de ondas
Un proceso X(t) estocástico puede ser definido en general por:

• Una variable aleatoria variando en el tiempo en el sentido de que el valor


que toma la variable aleatoria es variable con el tiempo
• Una función variable en el tiempo en el sentido de que la función entera,
además de un número, es asignada a cada salida.

Existe una gran cantidad de procesos aleatorios, cada uno con diferentes características.
Se dice que un proceso aleatorio puede ser:

• Continuo si X(t1) para muchos tiempos fijos t1 es una variable aleatoria


continua.
• Discreto si X(t1) para muchos t1 es una variable aleatoria discreta.
• Mixto si no es necesariamente continuo o discreto.
• Estrictamente estacionario
• Estacionario si tampoco su auto correlación depende de la elección del
tiempo de inicio
• Ergódico si el valor promedio conjunto ‫ݔ‬ҧ es igual al tiempo promedio para
cada una de las muestras de la función x(t)
• Blanco si los valores en diferentes tiempos no están correlacionados, esto
es, si la auto varianza es siempre cero (o igualmente, su auto correlación
es el producto de los valores esperados) para diferentes instantes de
tiempo
Los siguientes son ejemplos dentro del amplio grupo de las series temporales:
• señales de telecomunicación;
• señales biomédicas (electrocardiograma, encefalograma, etcétera);
• señales sísmicas;
• el número de manchas solares año tras año;
• el índice de la bolsa segundo a segundo;
• la evolución de la población de un municipio año tras año;
• el tiempo de espera en la cola de cada uno de los usuarios que van
llegando a una ventanilla;
• el clima, un gigantesco conjunto de procesos estocásticos
interrelacionados (velocidad del viento, humedad del aire, etcétera) que
evolucionan en el espacio y en el tiempo

13
PROCESO ESTACIONARIO

Un proceso estacionario (o proceso estrictamente estacionario) es un proceso


estocástico cuya distribución de probabilidad en un instante de tiempo fijo o una posición
fija es la misma para todos los instantes de tiempo o posiciones. En consecuencia,
parámetros tales como la media y la varianza, si existen, no varían a lo largo del tiempo o
la posición.
Por ejemplo, el ruido blanco es estacionario. Sin embargo, el sonido de un golpe
de platillos no es estacionario, pues la energía acústica del golpe (y por lo tanto su
varianza) disminuye con el tiempo.
Un proceso estacionario de tiempo discreto, donde el espacio muestral también es
discreto (de manera que la variable aleatoria pueda tomar uno de N valores posibles) se
llama esquema de Bernoulli. Cuando N = 2, el proceso se llama proceso de Bernoulli.

ESTACIONARIDAD DÉBIL O DE SENTIDO AMPLIO

Una forma más débil de estacionaridad de uso común en procesamiento de señales es la


llamada estacionaridad débil o estacionaridad en sentido amplio. Un proceso aleatorio
estacionario en sentido amplio solo requiere que el primer y segundo momento no varíe
con respecto al tiempo. Todo proceso estacionario en sentido estricto que
tenga media y varianza definidas, es también estacionario en sentido amplio.
De esta manera, un proceso aleatorio de tiempo continuo x(t) que sea estacionario en
sentido amplio tiene las siguientes restricciones sobre su función media:

y función de correlación:

La primera propiedad implica que su función media mx(t) debe ser constante. La segunda
propiedad implica que la función de correlación depende solo de la diferencia entre t1 y
t2 , y sólo necesita ser indexada por una única variable en lugar de dos. Así, en lugar de
escribir:
normalmente se abrevia notando de la siguiente manera:
Al procesar señales aleatorias estacionarias en sentido amplio
mediante filtros lineales, invariantes en el tiempo (LTI), resulta útil pensar la función de
correlación como un operador lineal. Dado que es un operador circular (pues depende
solo de la diferencia entre dos argumentos), sus funciones propias son las exponenciales
complejas de Fourier. Más aún, dado que las funciones propias de operadores LTI son
también exponenciales complejas, el procesado LTI de señales aleatorias estacionarias
en sentido amplio es altamente tratable: todos los cómputos pueden realizarse en

14
el dominio de la frecuencia. Así, asumir estacionaridad en sentido amplio resulta muy
común en algoritmos de procesamiento de señales.

DISTRIBUCIONES MULTIVARIABLES.

Ya se han analizado las variables aleatorias resultantes de experimentos aleatorios donde


sólo intervenía un factor, es decir, modelos que manejan series univariadas de datos que
sólo se preocupan por entender la variabilidad de una sola variable. Un ejemplo de este
tipo de modelos lo tenemos en los casos estadísticos exploratorios básicos del análisis de
tendencia central y dispersión. Existe una gran variedad de modelos más que se emplean
en las teorías de Pronósticos y regresión.
Por otro lado, debido a que no siempre es suficiente entender la variabilidad de una sola
variable o de un conjunto de variables de manera independiente, la estadística ha
diseñado el análisis multivariado de datos para analizar la variabilidad de un conjunto de
variables de forma conjunta. Así, modelos univariados anteriormente presentados tienen
su extensión al análisis multivariado.

DISTRIBUCIÓN DE PROBABILIDAD CONJUNTA DISCRETA.

Supóngase un experimento aleatorio en el que intervienen dos factores, por ejemplo,


lanzar dos monedas donde se define una variable aleatoria para cada una de ellas: X1 y
X2.
Por ejemplo, si X1 : “cantidad de caras águila de la moneda uno”, es decir X1 = {0, 1}, así
mismo X2 : “cantidad de caras águila de la moneda dos”, X2 = {0, 1}, los valores de cada
experimento se representan por las parejas (x 1 , x 2 ), donde x1 ∈ X1 y x2 ∈ X2 ; es
decir X1 ∈ X2 = {(0, 0), (0, 1), (1, 0), (1, 1)} Definidas las variables aleatorias del
experimento, surge la necesidad de definir también probabilidad para las parejas (x 1 , x 2
).
Se le llama probabilidad conjunta el resultado de un experimento con do factores cuyas
variables aleatorias son X1 y X2, y parejas del experimento (x 1, x 2 ), representadas por:
P(x 1, x 2) = P(X1 = x1, X2 = x2)
En el ejemplo anterior sobre lanzar dos monedas, es fácil verificar que las probabilidades
correspondientes están dadas por:
P(0, 0) = P(0, 1) = P(1, 0) = P(1, 1) = 1/4
Dicha probabilidad cumple con los axiomas de probabilidad de Kolmogorov, por tanto,
desde el punto de vista axiomático, es una probabilidad.
Propiedades de la probabilidad conjunta discreta
P(x 1 , x 2 ) 0, para toda (x 1 , x 2 )

15
FUNCIÓN DE DISTRIBUCIÓN ACUMULADA

De forma similar que, en las variables aleatorias unidimensionales, la función de


distribución acumulada está dada por:

Para el ejemplo de lanzar dos monedas, se tiene:


F(0, 1) = P(0, 0) + P(0, 1) = 1/4 + 1/4 = 1/ 2
Propiedades de la función acumulada en dos variables.
Al igual que en el caso unidimensional, las propiedades de una función acumulada están
dadas por F(x1, x2), la cual siempre es no decreciente para todas x 1 y x 2.
Por ejemplo, en una variable sucede que si a ¿ b, entonces
F(b) ≥ F(a) o F(b) – F(a) ≥ 0
Por tanto, si a2 ≥ a1; b2 ≥ b1
Entonces
F(a2 , b2 ) – F(a2 , b1) ≥ F(a1 , b2) – F(a1 , b1)
De igual forma [F(a2 , b2 ) – F(a2 , b1 )] – [F(a1 , b2 ) – F(a1 , b1 )] ≥ 0
Lo que indica que la función acumulada es no decreciente.

Ejemplo.
Se va a considerar a tres ejecutivos para un ascenso de un grupo de nueve; cuatro de
ellos están casados, tres nunca han estado casados y dos están divorciados. Dadas X1:
“número de ejecutivos casados” y X2 : “ejecutivos que nunca se han casado” a) se
calculan las distribuciones de probabilidad conjunta de X1 y X2 , suponiendo que se toma
una muestra al azar de tres de los nueve ejecutivos b) se calcula F(1, 2)
Los pasos a seguir para resolver el problema son similares en el caso de una variable,
primero se definen las variables aleatorias del experimento
X1: “número de ejecutivos casados”

16
X2 : “número de ejecutivos que nunca se han casado”
a) La distribución de probabilidad en este caso está dada con base en los ejecutivos
considerados de entre los divorciados y, por tanto, pueden suceder tres casos: caso 1,
ningún divorciado; caso 2, un divorciado y, caso 3, dos divorciados.

FUNCIÓN DE DISTRIBUCIÓN ACUMULADA BIVARIADA DISCRETA

Función de distribución acumulada bivariada F(a,b) para cualquier V.A. bivariada (X,Y) se
define como:

FUNCIÓN DE PROBABILIDAD MARGINAL

Cuando se trabaja con varias variables puede ser necesario conocer las probabilidades
cuando se elige un valor de alguna de ellas y las otras pueden variar en todo su rango.
Sea (X,Y) V.A. discreta bivariada con distribución de probabilidad P(x,y)=P(X=x,Y=y), se
definen las funciones de probabilidad marginal de X y de Y respectivamente, como:

Donde las sumatorias se toman sobre todos los valores posibles de Y y de X


respectivamente

17
FUNCIÓN DE PROBABILIDAD CONDICIONAL.
Sea (X,Y) V.A. discreta bivariada, la función de probabilidad condicional de que X=xi dado
que Y=yj es:

La función de probabilidad condicional de que Y=yj dado que X=xi es:

VARIABES ALEATORIAS INDEPENDIENTES.

Sea (X,Y) V.A. bidimensional discreta, decimos que X y Y son variables aleatorias
independientes si y sólo sí:
P(X=xi , Y=yj )=P(xi ,yj )= PX (xi )PY (yj )
Para toda i, j.
Observación: X y Y son variables aleatorias independientes si el resultado de X de
ninguna manera influye en el resultado de Y y viceversa.

Relación entre variables aleatorias independientes.


Teorema.
Sea (X,Y) V.A. bidimensional discreta, entonces X y Y son independientes si y sólo sí:
P(xi | yj )=PX (xi )
Para toda i, j.
Equivalentemente
P(yj |xi )=PY (yj )
Para toda i, j.
Valor Esperado de (Y,X)
Dada la V.A. bidimensional discreta (X,Y), con función de distribución de probabilidad
P(X=xi ,Y=yj ) Se llama valor esperado de (X,Y) al calculado por:

18
Propiedades:
Si X y Y son variables aleatorias independientes entonces:

Coeficiente de Correlación y Covarianza.


Para saber si existe alguna relación entre las variables X y Y, como podría ser que cuando
aumenta X aumenta Y o en forma inversa aumenta una y la otra disminuye, o bien no
existe relación entre ellas; utilizaremos la Covarianza y el Coeficiente de Correlación
Lineal para determinar la relación entre las variables y su grado de interacción.
La Covarianza se define como el valor esperado del producto (X-μX )(Y- μY ) y se
simboliza por Cov(X,Y).
Cov(X,Y) = E[(X-μX )(Y- μY )]
Teorema
Dada la variable aleatoria conjunta (X,Y), la covarianza de (X,Y) se calcula mediante
Cov(X,Y) = E(X,Y)- E(X)·E(Y)

Coeficiente De Correlación
Como se pudo observar, utilizando la covarianza no se tiene gran información sobre la
relación entre las variables, entonces aplicaremos el concepto llamado Coeficiente de
Correlación (que es una versión ajustada de la covarianza) ρxy. El cual está definido por:

Donde:

Características del Coeficiente de Correlación:


 -1 ≤ ρxy ≤ 1
 Si ρxy = 0 se dice que no hay una relación lineal entre X y Y o bien X y Y no están
correlacionadas. Así X y Y son V. A. independientes.
 Si ρxy≈ 1 se dice que hay una fuerte relación positiva lineal entre X y Y, es decir;
cuando X crece Y crece y viceversa.
 Si ρxy≈ -1 se dice que hay una fuerte relación negativa lineal entre X y Y, es decir;
cuando X crece Y decrece y viceversa.
 Si ρxy = 1 Caso ideal de correlación entre X y Y.

19
TEOREMA DEL LÍMITE CENTRAL

Proceso gaussiano
Suponiendo que se observa un proceso aleatorio X(t) en un intervalo que se inicia en el
tiempo t=0 y perdura hasta t=T, al igual que dicho proceso aleatorio se pondera por medio
de una función g(t) y se integra el producto de ambas a lo largo de este intervalo de
observación, se obtiene una variable aleatoria Y definida por:
T
Y =∫ g ( t ) X ( t ) dt
0

Si en la ecuación la función ponderadora g(t) es tal que el valor cuadrático medio de la


variable aleatoria Y es finito, y si Y es una variable aleatoria que se distribuye
gaussianamente para toda g(t), entonces se dice que el proceso X(t) es un proceso
gaussiano. Decimos que la variable aleatoria Y tiene una distribución gaussiana si su
función de densidad de probabilidad tiene la forma:

[ ]
2
1 −( y −μ Y )
f Y ( y )= exp ⁡ 2
√ 2 π σY 2σY
Donde μY es la media y σY2 es la varianza de la variable aleatoria Y. Una gráfica de esta
función de densidad de probabilidad se presenta en la siguiente figura para el caso
especial en el que la variable aleatoria gaussiana Y se normaliza para tener una media de
cero y una varianza de uno, de acuerdo con:

f Y ( y )=
1
√2 π
exp ⁡
2[ ]
−y 2

Tal función normalizada se escribe por lo general como Ν(0,1)

20
Un proceso gaussiano tiene
dos virtudes:
1. Posee muchas propiedades que hacen posibles los resultados analíticos.
2. Los procesos aleatorios producidos por fenómenos físicos son tales que resulta
apropiado un modelo gaussiano
TEOREMA DE LIMITE CENTRAL
El teorema del límite central es un teorema fundamental de probabilidad y estadística. El
teorema describe la distribución de la media de una muestra aleatoria proveniente de una
población con varianza finita. Cuando el tamaño de la muestra es lo suficientemente
grande, la distribución de las medias sigue aproximadamente una distribución normal. El
teorema se aplica independientemente de la forma de la distribución de la población y
permite aplicar estos procedimientos útiles a poblaciones que son considerablemente no
normales.

El teorema de limite central proporciona la justificación matemática para utilizar un


proceso gaussiano como un modelo en un gran número de fenómenos físicos diferentes
en los que la variable aleatoria observada, en un instante particular, es el resultado de un
número grande de eventos aleatorios individuales, para formular este teorema, sea Xi, i=1,
2, …, N, un conjunto de variables aleatorias que satisfacen los siguientes requerimientos:
1. Las Xi son independientes estadísticamente.
2. Las Xi tienen la misma distribución de probabilidad con media μx y varianza σx2.

21
Las variables aleatorias descritas se dice que constituyen un conjunto de variables
aleatorias distribuidas independiente e idénticamente (dii). Considérese que se normalizan
de la siguiente forma:
1
Y i= ( X −μ ) , i=1,2, … , N
σx i x
De modo que:
E[Yi]=0
Y
Var[Yi]=1
Se define la variable aleatoria
N
1
V N= ∑Y
√ N i=1 i
El teorema de limite central establece que la distribución de probabilidad de V N se
aproxima a la distribución gaussiana normalizada N(0,1) en el limite cuando el número de
variables aleatorias N tiende a infinito.
Un proceso gaussiano tiene algunas propiedades útiles:
1. Si se aplica un proceso gaussiano X(t) a un filtro lineal estable, entonces el
proceso aleatorio Y(t) que se desarrolla a la salida del filtro también es gaussiano.
2. Considere el conjunto de variables o muestras aleatorias X(t1), X(t2), …, X(tn),
obtenido al observar un proceso aleatorio X(t) en los tiempos t1,t2, …, tn. Si el
proceso X(t) es gaussiano, entonces este conjunto de variables aleatorias es
gaussiano conjuntamente para toda n, estando su función de densidad de
probabilidad conjunta enésima determinada completamente para toda n.
3. Si un proceso gaussiano es estacionario, entonces el proceso es también
estrictamente estacionario.
4. Si las variables obtenidas mediante un proceso gaussiano X(t) en los tiempos t1,
t2,…, tn, no están correlacionadas, esto es:

Entonces estas variables


aleatorias son independientes estadísticamente.

CONCLUSIÓN

22
 Tanto la probabilidad como la estadística es necesaria en las comunicaciones ya
que permite el estudio de señales no determinísticas o aleatorias.

 En las comunicaciones se presentas señales aleatorias como el ruido no deseado


y como formas de ondas de información, para comprender estas señales se debe
estudiar términos de probabilidad y propiedades estadísticas.

 Una distribución de probabilidad para una variable aleatoria discreta es un listado


mutuamente excluyente de todos los resultados posibles para esa variable
aleatoria, tal que una probabilidad particular de ocurrencia esté asociada con cada
resultado.

 Los procesos aleatorios son en general una agrupación de variables que tienen un
valor incierto, y que se puede tener una aproximación de los valores que estas
puedan tomar.por lo tanto son muy importantes para poder recolectar y analizar
grupos de información muy grandes

GLOSARIO DE TÉRMINOS

23
Valor cuadrático medio: es la media cuadrática de valores que varían constantemente
(traza).
Normalizar: Proceso de formular y aplicar reglas para una aproximación ordenada a una
actividad específica para el beneficio y con la cooperación de todos los involucrados
Dii: Conjunto de variables aleatorias distribuidas independiente e idénticamente
Proceso estocástico: un proceso estocástico es un concepto matemático que sirve para
usar magnitudes aleatorias que varían con el tiempo o para caracterizar una sucesión de
variables aleatorias (estocásticas) que evolucionan en función de otra variable,
generalmente el tiempo.
Media: En estadística la esperanza matemática (también llamada esperanza, valor
esperado, media poblacional o media) de una variable aleatoria, es el número o que
formaliza la idea de valor medio de un fenómeno aleatorio.
Varianza: En teoría de probabilidad, la varianza o variancia (que suele representarse
como) de una variable aleatoria es una medida de dispersión definida como la esperanza
del cuadrado de la desviación de dicha variable respecto a su media.
Energía acústica: La energía sonora (o acústica) es la energía que transmiten o
transportan las ondas sonoras. Procede de la energía de la vibración del foco sonoro y se
propaga a las partículas del medio que atraviesan en forma de energía cinética
(movimiento de las partículas), y de energía potencial (cambios de presión producidos en
dicho medio o presión sonora). Al irse propagando el sonido a través del medio, la energía
se transmite a la velocidad de la onda, pero una parte de la energía sonora se disipa en
forma de energía térmica.1 La energía acústica suele tener valores absolutos bajos, y su
unidad de medida es el julio (J). Aunque puede calcularse a partir de otras magnitudes
como la intensidad sonora, también se pueden calcular otras magnitudes relacionadas,
como la densidad o el flujo de energía acústica.
Espacio muestral: En la teoría de probabilidades, el espacio muestral o espacio de
muestreo (denotado E, S, Ω o U) consiste en el conjunto de todos los posibles resultados
de un experimento aleatorio, junto con una estructura sobre el mismo (ver más adelante).
Variable Aleatoria: Una variable aleatoria es una función que asigna un valor, usualmente
numérico, al resultado de un experimento aleatorio. Por ejemplo, los posibles resultados
de tirar un dado dos veces: (1, 1), (1, 2), etc. o un número real (p.e., la temperatura
máxima medida a lo largo del día en una ciudad concreta).
Proceso de Bernoulli: Un proceso de Bernoulli es la repetición de un ensayo de
Bernoulli. Por ejemplo, de una moneda estaremos estudiando cuántas veces sale "cara" o
cuántas veces sale "cruz", o la probabilidad de que salga "cara", al menos una vez, de un
número n de intentos.

BIBLIOGRAFIA

24
[1] A. Carlson, P. Crilly and J. Rutledge, Sistemas de comunicación,4th ed. México:
MacGraw-Hill, 2007.

[2] W. Mendenhall, J. Velázquez Arellano, R. Beaver and B. Beaver, Introducción a la


probabilidad y estadística, 13th ed. México: Cengage Learning.

[3] F. Stremler and G. Duchén Sánchez, Introducción a los sistemas de comunicación,


3rd ed. México: Addison-Wesley Pub. Co., 1998.

[4] R. Walpole, R. Myers and S. Myers, Probabilidad y estadística para ingeniería y


ciencias, 9th ed. Distrito Federal: Pearson Educación, 2012.

[5] L. Couch, R. Romero Elizondo and J. Cuevas Ruiz, Sistemas de comunicación


digitales y analógicos, 7th ed. México: Pearson Educación, 2008.

[6] Simon Haykin, Sistemas de comunicación, editorial McMaster University


[7] Ferrel G. Stremler, Sistemas de comunicación University of Winsconsin,
Madison

Páginas Web Consultadas

 https://support.minitab.com/es-mx/minitab/18/help-and-how-to/statistics/basic-
statistics/supporting-topics/data-concepts/about-the-central-limit-theore
 http://gc.initelabs.com/recursos/files/r157r/w13184w/Estad%20y
%20Prob_5a_09.pdf
 http://halweb.uc3m.es/esp/Personal/personas/imolina/MiDocencia/SeriesTemporal
es/Tema2SeriesEstud.pdf
 http://www.dmae.upct.es/~mcruiz/Telem06/Teoria/apuntes_procesos.pdf

25

S-ar putea să vă placă și