Documente Academic
Documente Profesional
Documente Cultură
INTRODUCCIÓN.................................................................................................................................2
PROBABILIDAD Y ESTADÍSTICA EN COMUNICACIONES.....................................................................3
PROBABILIDAD Y ESPACIO MUESTRAL..........................................................................................3
VARIABLES ALEATORIAS Y FUNCIONES DE PROBABILIDAD...........................................................5
PROMEDIOS ESTADISTICO.............................................................................................................8
EL PROMEDIO CONJUNTO.............................................................................................................8
MODELOS DE PROBABILIDAD........................................................................................................9
DEFINICIÓN DE PROCESOS ALEATORIOS.........................................................................................11
PROCESO ESTACIONARIO.................................................................................................................13
ESTACIONARIDAD DÉBIL O DE SENTIDO AMPLIO........................................................................13
DISTRIBUCIONES MULTIVARIABLES.................................................................................................14
DISTRIBUCIÓN DE PROBABILIDAD CONJUNTA DISCRETA............................................................14
FUNCIÓN DE DISTRIBUCIÓN ACUMULADA.................................................................................15
FUNCIÓN DE DISTRIBUCIÓN ACUMULADA BIVARIADA DISCRETA..............................................16
FUNCIÓN DE PROBABILIDAD MARGINAL....................................................................................17
FUNCIÓN DE PROBABILIDAD CONDICIONAL...............................................................................17
VARIABES ALEATORIAS INDEPENDIENTES...................................................................................17
TEOREMA DEL LÍMITE CENTRAL......................................................................................................19
CONCLUSIÓN....................................................................................................................................22
GLOSARIO DE TÉRMINOS.................................................................................................................23
BIBLIOGRAFIA..................................................................................................................................24
1
INTRODUCCIÓN
Se dice que las señales cuyos valores pueden especificarse de manera exacta son
“determinísticas”. Las señales determinísticas no siempre pueden expresarse en forma
explícita, pero si es posible expresarlas, dentro de ciertos límites más bien amplios, en
términos de sumatorias de funciones conocidas de manera explícita (como las series de
Fourier).
2
PROBABILIDAD Y ESTADÍSTICA EN
COMUNICACIONES
3
La figura 1 muestra el espacio muestral y las relaciones entre A, B y C en forma de un
diagrama de Venn. B y C son eventos excluyentes, mientras que A contiene un punto en
común con B y C.
4
P( AB)
P ( A BA )= (6)
P( B)
Teorema de Bayes
P ( B ) P ( A BA )
P ( B AA ) = (8)
P( A)
P ( A BA )=P ( A ) P ( B AA ) =P ( B ) ( 9)
P ( AB )=P ( A ) P ( B ) (10)
El lanzamiento de monedas y otros juegos de azar son temas naturales y fascinantes para
cálculos de probabilidad. Pero los ingenieros de comunicación están más preocupados
por procesos aleatorios que producen resultados numéricos: el valor instantáneo de un
voltaje de ruido, el número de errores en un mensaje digital, y así
sucesivamente. Manejamos tales problemas al definir una variable aleatoria. Una variable
aleatoria es una regla o relación, denotada por X, que asigna un número real X (s) a cada
punto en el espacio de muestra S. Una variable discreta puede tomar sólo un número
finito o contable de valores. Una variable continua puede tomar infinitamente muchos
valores correspondientes a los puntos en un intervalo de recta.
El nombre de discreta se refiere a las brechas discretas entre los posibles valores que la
variable puede tomar. Variables como el número de miembros de una familia,
el número de ventas de autos nuevos y el número de llantas defectuosas devueltas para
cambio son todos ellos ejemplos de variables discretas. Por el contrario, variables como la
estatura, peso, tiempo, distancia y volumen son continuas porque pueden tomar valores
en cualquier punto a lo largo de un intervalo de recta. Para cualesquier dos valores que se
escojan, un tercer valor siempre puede hallarse entre ellos. [2]
5
El conjunto de pares ordenados ( x , f (x)) es una función de probabilidad, una función
de masa de probabilidad o una distribución de probabilidad de la variable aleatoria
discreta X si, para cada resultado x posible
1. f ( x ) ≥ 0,
2. ∑ f ( x ) =1
x
3. P ( X=x )=f ( x )
{
0, para x< 0
68
, para 0 ≤ x< 1
F ( x )= 95
187
, para 1 ≤ x<2
190
1, para x ≥2
6
dF( x )
P ( a< X < b )=F ( b )−F ( a ) y f ( x ) =
dx
sí existe la derivada.
1. f ( x , y ) ≥ 0 para toda ( x , y ) ,
2. ∑ ∑ f ( x , y )=1,
x y
3. P ( X=x ,Y = y )=f ( x , y ) .
4.
Para cualquier región A en el plano xy, P [ ( X ,Y ) ∈ A ] =∑ ∑ f (x , y ).
A
g ( x ) =∑ f ( x , y ) y h ( x )=∑ f ( x , y )(13)
y x
para el caso discreto, y
∞ ∞
g ( x ) =∫ f (x , y ) y h ( x )=∫ f (x , y)(14)
−∞ −∞
para el caso continuo.
7
La función f ( x , y )/g ( x) , que es una función de y con x fija, satisface todas las
condiciones de una distribución de probabilidad. Como resultado, para poder calcular
probabilidades condicionales es importante que utilicemos el tipo especial de distribución
de la forma f ( x , y )/g (x) . Este tipo de distribución se llama distribución de
probabilidad condicional y se define como:
Sean X y Y dos variables aleatorias, discretas o continuas. La distribución condicional de
la variable aleatoria Y, dado que X =x , es
f (x, y)
f ( y xA )= siempre que g ( x ) >0 (15 a)
g(x )
f (x , y)
f ( x yA ) = siempre que h ( y ) >0(15 b)
h( y)
f ( x , y ) =g ( x ) h ( y ) (16)
Para toda ( x , y ) dentro de sus rangos.
PROMEDIOS ESTADISTICO
La función de densidad de probabilidad es útil para evaluar los valores más probables de
determinadas cantidades.
EL PROMEDIO CONJUNTO
8
La medida de variabilidad más importante de una variable aleatoria X se obtiene al
aplicar el teorema en g( X )= ( X−μ )2 . A causa de su importancia en estadística, se le
denomina varianza de la variable aleatoria X o varianza de la distribución de probabilidad
de X y se denota como Var (X ) o con el símbolo σ 2 o simplemente cuando queda
claro a qué variable aleatoria nos referimos.
x
Si X es discreta, y
∞
σ =E [ ( X−μ ) ]=∫ ( x−μ ) f ( x ) dx ( 20 )
2 2 2
−∞
Si X es continua.
σ 2 =E ( X )2−μ2 ( 21 )
MODELOS DE PROBABILIDAD
Existen numerosos tipos de distribuciones. Algunas de las más importantes empleadas en
los problemas de comunicaciones y de estadística se detallan a continuación
A. Distribución binomial
E { x }=np( 24)
9
σ =npq(25)
B. Distribución de Poisson
C. Distribución Uniforme
{
1
, A ≤ xB
f ( x ; A , B )= B− A (28)
0, en otro caso
10
La media y la varianza de la distribución uniforme son
A+ B
E { x }= (29)
2
B− A
¿
¿
¿2
¿
2
σ X =¿
D. Distribución gaussiana
11
x2
P ( x1 < X < x2 ) =∫ n ( x ; μ , σ X ) dx
x1
x2 −1 2
(x−μ)
1 2
¿ ∫e 2σ X
dx
√2 π σ X x1
Por fortuna, podemos transformar todas las observaciones de cualquier variable aleatoria
normal X en un nuevo conjunto de observaciones de una variable aleatoria normal Z con
media 0 y varianza 1. Esto se puede realizar mediante la transformación
x−μ
Z= (32)
σX
Los ‘procesos aleatorios’ son importantes porque en casi todos los aspectos de la vida se
presentan este tipo de situaciones en donde el comportamiento de un fenómeno o evento
no puede ser predicho, por tal motivo, solo puede especularse acerca de los posibles
efectos que tendrá. Además, la importancia de la probabilidad dentro de los procesos
aleatorios radica en que estos son una extensión de la probabilidad misma. La mayoría de
los procesos son dependientes
Un Proceso Aleatorio se define como el conjunto de señales provenientes de realizar un
determinado experimento o de un evento de la naturaleza. La naturaleza aleatoria del
experimento proviene del desconocimiento de cuál de las señales se obtendrá al realizar
el experimento. Para caracterizar los Procesos Aleatorios se definen diversas variables
aleatorias como la secuencia de valores de las diversas señales evaluadas en tiempos
específicos. Así se puede hablar de x(t1), x(t2), etc. Procesos Aleatorios pueden ser
continuos o discretos. Los casos especiales para Procesos Aleatorios mayormente
utilizados en el ámbito de las comunicaciones son los Procesos Estacionarios y los
Procesos Ergódicos.
12
Una variable aleatoria transforma las salidas de un experimento aleatorio a un conjunto de
números reales. En un sentido similar, un proceso aleatorio puede ser visto como una
transformación de las salidas de un experimento aleatorio a un conjunto de ondas o
funciones del tiempo. Mientras que en algunas aplicaciones puede no ser posible definir
explícitamente el experimento aleatorio y las transformaciones a ondas asociadas
(eléctricas, por ejemplo), todavía se pueden utilizar los procesos aleatorios como un
modelo para caracterizar a las formas de ondas
Un proceso X(t) estocástico puede ser definido en general por:
Existe una gran cantidad de procesos aleatorios, cada uno con diferentes características.
Se dice que un proceso aleatorio puede ser:
13
PROCESO ESTACIONARIO
y función de correlación:
La primera propiedad implica que su función media mx(t) debe ser constante. La segunda
propiedad implica que la función de correlación depende solo de la diferencia entre t1 y
t2 , y sólo necesita ser indexada por una única variable en lugar de dos. Así, en lugar de
escribir:
normalmente se abrevia notando de la siguiente manera:
Al procesar señales aleatorias estacionarias en sentido amplio
mediante filtros lineales, invariantes en el tiempo (LTI), resulta útil pensar la función de
correlación como un operador lineal. Dado que es un operador circular (pues depende
solo de la diferencia entre dos argumentos), sus funciones propias son las exponenciales
complejas de Fourier. Más aún, dado que las funciones propias de operadores LTI son
también exponenciales complejas, el procesado LTI de señales aleatorias estacionarias
en sentido amplio es altamente tratable: todos los cómputos pueden realizarse en
14
el dominio de la frecuencia. Así, asumir estacionaridad en sentido amplio resulta muy
común en algoritmos de procesamiento de señales.
DISTRIBUCIONES MULTIVARIABLES.
15
FUNCIÓN DE DISTRIBUCIÓN ACUMULADA
Ejemplo.
Se va a considerar a tres ejecutivos para un ascenso de un grupo de nueve; cuatro de
ellos están casados, tres nunca han estado casados y dos están divorciados. Dadas X1:
“número de ejecutivos casados” y X2 : “ejecutivos que nunca se han casado” a) se
calculan las distribuciones de probabilidad conjunta de X1 y X2 , suponiendo que se toma
una muestra al azar de tres de los nueve ejecutivos b) se calcula F(1, 2)
Los pasos a seguir para resolver el problema son similares en el caso de una variable,
primero se definen las variables aleatorias del experimento
X1: “número de ejecutivos casados”
16
X2 : “número de ejecutivos que nunca se han casado”
a) La distribución de probabilidad en este caso está dada con base en los ejecutivos
considerados de entre los divorciados y, por tanto, pueden suceder tres casos: caso 1,
ningún divorciado; caso 2, un divorciado y, caso 3, dos divorciados.
Función de distribución acumulada bivariada F(a,b) para cualquier V.A. bivariada (X,Y) se
define como:
Cuando se trabaja con varias variables puede ser necesario conocer las probabilidades
cuando se elige un valor de alguna de ellas y las otras pueden variar en todo su rango.
Sea (X,Y) V.A. discreta bivariada con distribución de probabilidad P(x,y)=P(X=x,Y=y), se
definen las funciones de probabilidad marginal de X y de Y respectivamente, como:
17
FUNCIÓN DE PROBABILIDAD CONDICIONAL.
Sea (X,Y) V.A. discreta bivariada, la función de probabilidad condicional de que X=xi dado
que Y=yj es:
Sea (X,Y) V.A. bidimensional discreta, decimos que X y Y son variables aleatorias
independientes si y sólo sí:
P(X=xi , Y=yj )=P(xi ,yj )= PX (xi )PY (yj )
Para toda i, j.
Observación: X y Y son variables aleatorias independientes si el resultado de X de
ninguna manera influye en el resultado de Y y viceversa.
18
Propiedades:
Si X y Y son variables aleatorias independientes entonces:
Coeficiente De Correlación
Como se pudo observar, utilizando la covarianza no se tiene gran información sobre la
relación entre las variables, entonces aplicaremos el concepto llamado Coeficiente de
Correlación (que es una versión ajustada de la covarianza) ρxy. El cual está definido por:
Donde:
19
TEOREMA DEL LÍMITE CENTRAL
Proceso gaussiano
Suponiendo que se observa un proceso aleatorio X(t) en un intervalo que se inicia en el
tiempo t=0 y perdura hasta t=T, al igual que dicho proceso aleatorio se pondera por medio
de una función g(t) y se integra el producto de ambas a lo largo de este intervalo de
observación, se obtiene una variable aleatoria Y definida por:
T
Y =∫ g ( t ) X ( t ) dt
0
[ ]
2
1 −( y −μ Y )
f Y ( y )= exp 2
√ 2 π σY 2σY
Donde μY es la media y σY2 es la varianza de la variable aleatoria Y. Una gráfica de esta
función de densidad de probabilidad se presenta en la siguiente figura para el caso
especial en el que la variable aleatoria gaussiana Y se normaliza para tener una media de
cero y una varianza de uno, de acuerdo con:
f Y ( y )=
1
√2 π
exp
2[ ]
−y 2
20
Un proceso gaussiano tiene
dos virtudes:
1. Posee muchas propiedades que hacen posibles los resultados analíticos.
2. Los procesos aleatorios producidos por fenómenos físicos son tales que resulta
apropiado un modelo gaussiano
TEOREMA DE LIMITE CENTRAL
El teorema del límite central es un teorema fundamental de probabilidad y estadística. El
teorema describe la distribución de la media de una muestra aleatoria proveniente de una
población con varianza finita. Cuando el tamaño de la muestra es lo suficientemente
grande, la distribución de las medias sigue aproximadamente una distribución normal. El
teorema se aplica independientemente de la forma de la distribución de la población y
permite aplicar estos procedimientos útiles a poblaciones que son considerablemente no
normales.
21
Las variables aleatorias descritas se dice que constituyen un conjunto de variables
aleatorias distribuidas independiente e idénticamente (dii). Considérese que se normalizan
de la siguiente forma:
1
Y i= ( X −μ ) , i=1,2, … , N
σx i x
De modo que:
E[Yi]=0
Y
Var[Yi]=1
Se define la variable aleatoria
N
1
V N= ∑Y
√ N i=1 i
El teorema de limite central establece que la distribución de probabilidad de V N se
aproxima a la distribución gaussiana normalizada N(0,1) en el limite cuando el número de
variables aleatorias N tiende a infinito.
Un proceso gaussiano tiene algunas propiedades útiles:
1. Si se aplica un proceso gaussiano X(t) a un filtro lineal estable, entonces el
proceso aleatorio Y(t) que se desarrolla a la salida del filtro también es gaussiano.
2. Considere el conjunto de variables o muestras aleatorias X(t1), X(t2), …, X(tn),
obtenido al observar un proceso aleatorio X(t) en los tiempos t1,t2, …, tn. Si el
proceso X(t) es gaussiano, entonces este conjunto de variables aleatorias es
gaussiano conjuntamente para toda n, estando su función de densidad de
probabilidad conjunta enésima determinada completamente para toda n.
3. Si un proceso gaussiano es estacionario, entonces el proceso es también
estrictamente estacionario.
4. Si las variables obtenidas mediante un proceso gaussiano X(t) en los tiempos t1,
t2,…, tn, no están correlacionadas, esto es:
CONCLUSIÓN
22
Tanto la probabilidad como la estadística es necesaria en las comunicaciones ya
que permite el estudio de señales no determinísticas o aleatorias.
Los procesos aleatorios son en general una agrupación de variables que tienen un
valor incierto, y que se puede tener una aproximación de los valores que estas
puedan tomar.por lo tanto son muy importantes para poder recolectar y analizar
grupos de información muy grandes
GLOSARIO DE TÉRMINOS
23
Valor cuadrático medio: es la media cuadrática de valores que varían constantemente
(traza).
Normalizar: Proceso de formular y aplicar reglas para una aproximación ordenada a una
actividad específica para el beneficio y con la cooperación de todos los involucrados
Dii: Conjunto de variables aleatorias distribuidas independiente e idénticamente
Proceso estocástico: un proceso estocástico es un concepto matemático que sirve para
usar magnitudes aleatorias que varían con el tiempo o para caracterizar una sucesión de
variables aleatorias (estocásticas) que evolucionan en función de otra variable,
generalmente el tiempo.
Media: En estadística la esperanza matemática (también llamada esperanza, valor
esperado, media poblacional o media) de una variable aleatoria, es el número o que
formaliza la idea de valor medio de un fenómeno aleatorio.
Varianza: En teoría de probabilidad, la varianza o variancia (que suele representarse
como) de una variable aleatoria es una medida de dispersión definida como la esperanza
del cuadrado de la desviación de dicha variable respecto a su media.
Energía acústica: La energía sonora (o acústica) es la energía que transmiten o
transportan las ondas sonoras. Procede de la energía de la vibración del foco sonoro y se
propaga a las partículas del medio que atraviesan en forma de energía cinética
(movimiento de las partículas), y de energía potencial (cambios de presión producidos en
dicho medio o presión sonora). Al irse propagando el sonido a través del medio, la energía
se transmite a la velocidad de la onda, pero una parte de la energía sonora se disipa en
forma de energía térmica.1 La energía acústica suele tener valores absolutos bajos, y su
unidad de medida es el julio (J). Aunque puede calcularse a partir de otras magnitudes
como la intensidad sonora, también se pueden calcular otras magnitudes relacionadas,
como la densidad o el flujo de energía acústica.
Espacio muestral: En la teoría de probabilidades, el espacio muestral o espacio de
muestreo (denotado E, S, Ω o U) consiste en el conjunto de todos los posibles resultados
de un experimento aleatorio, junto con una estructura sobre el mismo (ver más adelante).
Variable Aleatoria: Una variable aleatoria es una función que asigna un valor, usualmente
numérico, al resultado de un experimento aleatorio. Por ejemplo, los posibles resultados
de tirar un dado dos veces: (1, 1), (1, 2), etc. o un número real (p.e., la temperatura
máxima medida a lo largo del día en una ciudad concreta).
Proceso de Bernoulli: Un proceso de Bernoulli es la repetición de un ensayo de
Bernoulli. Por ejemplo, de una moneda estaremos estudiando cuántas veces sale "cara" o
cuántas veces sale "cruz", o la probabilidad de que salga "cara", al menos una vez, de un
número n de intentos.
BIBLIOGRAFIA
24
[1] A. Carlson, P. Crilly and J. Rutledge, Sistemas de comunicación,4th ed. México:
MacGraw-Hill, 2007.
https://support.minitab.com/es-mx/minitab/18/help-and-how-to/statistics/basic-
statistics/supporting-topics/data-concepts/about-the-central-limit-theore
http://gc.initelabs.com/recursos/files/r157r/w13184w/Estad%20y
%20Prob_5a_09.pdf
http://halweb.uc3m.es/esp/Personal/personas/imolina/MiDocencia/SeriesTemporal
es/Tema2SeriesEstud.pdf
http://www.dmae.upct.es/~mcruiz/Telem06/Teoria/apuntes_procesos.pdf
25