Sunteți pe pagina 1din 17

.

Variables aleatorias univariantes continuas

En las variables aleatorias continuas, ya no se tienen un número finito de valores,


sino infinito. Por tanto no tiene sentido hablar de la probabilidad de obtener un
valor concreto, pues ésta será siempre cero. Por ejemplo, si consideramos el
experimento de seleccionar al azar un número real comprendido en el intervalo
[3,4], ¿cuál es la probabilidad de elegir el número π (3.1416...). Al haber infinitos
valores todos con las mismas posibilidades de ser seleccionados, tendremos que
P(3,1416...)=1 /∞=0 . Y similar resultado se obtiene para cualquier variable
continua. Por tanto, no tiene sentido definir una variable aleatoria continua
utilizando la función de probabilidad. Con variables continuas, hablaremos de
probabilidades de obtener valores en cierto intervalo. Por ejemplo, la probabilidad
de tardar más de 10 minutos en realizar una tarea, o la probabilidad de que una
pieza manufacturada tenga una longitud comprendida entre 7.5 y 7.8 centímetros.
Para calcular probabilidades con una variable aleatoria continua usaremos la
llamada función de densidad así como la función de distribución

3.3.1. Función de densidad Sea X una variable aleatoria continua que toma valores
en la recta real. La función de densidad, o función de densidad de probabilidad, de
X en el punto X = x es una función f(x) ≥ 0 tal que la probabilidad de obtener un
valor entre x1 y x2 es

P(x1 <X<x 2)=Zx2 x1

f(x)dx.

3.3 Variables aleatorias univariantes continuas 7

La función de densidad de probabilidad es similar a cualquier otra función de


densidad en física. Por ejemplo, la densidad de masa de un cuerpo es su peso por
unidad de volumen, mientras que la función de densidad de probabilidad es la
probabilidad por unidad de medida de la variable X. De esta forma, sumando
(integrando) la densidad a lo largo de un número de unidades de medida
conseguimos la probabilidad. A continuación se muestran algunos ejemplos de
funciones de densidad de probabilidad.

No es fácil, en general, construir una función de densidad que se adecúe


perfectamente

Se denomina variable continua a aquella que puede tomar cualquiera de los infinitos valores
existentes dentro de un intervalo. En el caso de variable continua la distribución de
probabilidad es la integral de la función de densidad, por lo que tenemos entonces que:
F ( x ) = P ( X ≤ x ) = ∫ − ∞ x f ( t ) d t {\displaystyle F(x)=P(X\leq x)=\int _{-\infty

}^{x}f(t)\,dt}

DISTRIBUCIÓN UNIFORME (DE V.CONTINUA)

La distribución o modelo uniforme puede considerarse como proveniente de un proceso


de extracción aleatoria .El planteamiento radica en el hecho de que la probabilidad se
distribuye uniformemente a lo largo de un intervalo . Así : dada una variable aleatoria
continua, x , definida en el intervalo [a,b] de la recta real, diremos que x tiene una distribución
uniforme en el intervalo [a,b] cuando su función de densidad para sea:

para x  [a,b].

Su representación gráfica será :

De manera que la función de distribución resultará:

Su representación gráfica será :


Este modelo tiene la característica siguiente : Si calculamos la probabilidad del suceso

Tendremos:

Este resultado nos lleva a la conclusión de que la probabilidad de cualquier suceso


depende únicamente de la amplitud del intervalo ( X) , y no de su posición en la recta real
[a , b] . Lo que viene ha demostrar el reparto uniforme de la probabilidad a lo largo de todo
el campo de actuación de la variable , lo que , por otra parte, caracteriza al modelo.

En cuanto a las ratios de la distribución tendremos que la media tiene la expresión:

La varianza tendrá la siguiente expresión:

de donde

por lo que
La función generatriz de momentos vendrá dada por :

DISTRIBUCIÓN EXPONENCIAL

A pesar de la sencillez analítica de sus funciones de definición, la distribución exponencial


tiene una gran utilidad práctica ya que podemos considerarla como un modelo adecuado para
la distribución de probabilidad del tiempo de espera entre dos hechos que sigan un proceso
de Poisson. De hecho la distribución exponencial puede derivarse de un proceso experimental
de Poisson con las mismas características que las que enunciábamos al estudiar la
distribución de Poisson, pero tomando como variable aleatoria , en este caso, el tiempo que
tarda en producirse un hecho

Obviamente, entonces , la variable aleatoria será continua. Por otro lado existe una relación
entre el parámetro  de la distribución exponencial , que más tarde aparecerá , y el parámetro
de intensidad del proceso  , esta relación es  = 

Al ser un modelo adecuado para estas situaciones tiene una gran utilidad en los siguientes
casos:

 Distribución del tiempo de espera entre sucesos de un proceso de Poisson

 Distribución del tiempo que transcurre hasta que se produce un fallo, si se cumple la
condición que la probabilidad de producirse un fallo en un instante no depende del tiempo
transcurrido .Aplicaciones en fiabilidad y teoría de la supervivencia.

Función de densidad.

A pesar de lo dicho sobre que la distribución exponencial puede derivarse de un proceso


de Poisson , vamos a definirla a partir de la especificación de su función. de densidad:

Dada una variable aleatoria X que tome valores reales no negativos {x  0} diremos que
tiene una distribución exponencial de parámetro  con   0, si y sólo si su función de
densidad tiene la expresión:

Diremos entonces que


Gráficamente como ejemplo
planteamos el modelo con
parámetro  =0,05

En consecuencia , la función de distribución será:

En la principal aplicación de esta distribución , que es la Teoría de la Fiabilidad, resulta


más interesante que la función de distribución la llamada Función de Supervivencia o
Función de Fiabilidad.

La función de Supervivencia se define cómo la probabilidad de que la variable


aleatoria tome valores superiores al valor dado X:

Si el significado de la variable aleatoria es "el tiempo que transcurre hasta que se produce
el fallo": la función de distribución será la probabilidad de que el fallo ocurra antes o en el
instante X: y , en consecuencia la función de supervivencia será la probabilidad de que el
fallo ocurra después de transcurrido el tiempo X ; por lo tanto, será la probabilidad de que el
elemento, la pieza o el ser considerado "Sobreviva" al tiempo X ; de ahí el nombre.

Gráficamente, la función de distribución para un modelo exponencial de parámetro  =0,05


sería :
En la que se observa lo que sería la
diferencia entre función de
distribución y la de supervivencia

La Función Generatriz de Momentos será :

tendremos así que la F.G.M será :

Una vez calculada la F.G.M podemos , partiendo de ella , calcular la media y la varianza

Así la media será:

En cuando a la varianza su expresión será :


ya que

La mediana del modelo exponencial será aquel valor de la variable x =Me que verifica
que F(Me) = ½

De manera que por lo que

Tasa instantánea de fallo.

Dentro del marco de la teoría de la fiabilidad si un elemento tiene una distribución del
tiempo para un fallo con una función de densidad f(x) , siendo x la variable tiempo para que
se produzca un fallo , y con una función de supervivencia S(X) La probabilidad de que un
superviviente en el instante t falle en un instante posterior t +  t será una probabilidad
condicionada que vendrá dada por:

Al cociente entre esta probabilidad condicionada y la amplitud del intervalo considerado,


t , se le llama tasa media de fallo en el intervalo [t , t+ t] :

Y a la tasa media de fallo en un intervalo infinitésimo es decir, al límite de la tasa media de


fallo cuando  t 0 se le llama Tasa Instantánea de Fallo (o, simplemente, tasa de fallo) en
t:
La tasa de fallo es, en general, una función del tiempo, que define unívocamente la
distribución.

Pues bien, puede probarse que el hecho de que la tasa de fallo sea constante es condición
necesaria y suficiente para que la distribución sea exponencial y que el parámetro es, además,
el valor constante de la tasa de fallo.

en efecto:

si

de donde integrando esta ecuación


diferencial entre 0 y x :

de modo que la función de distribución será

Función de Distribución de una


Exponencial

Si X tiene una distribución exponencial

de manera que

Así pues si un elemento tiene una distribución de fallos exponencial su tasa de fallos se
mantiene constante a lo largo de toda la vida del elemento. La probabilidad de fallar en un
instante no depende del momento de la vida del elemento en el que nos encontremos; lo que
constituye la propiedad fundamental de la distribución que ahora enunciamos:

Propiedad fundamental de la distribución exponencial

La distribución exponencial no tiene memoria :

Poseer información de que el elemento que consideramos ha sobrevivido un tiempo S


(hasta el momento) no modifica la probabilidad de que sobreviva t unidades de tiempo más.
La probabilidad de que el elemento falle en una hora (o en un día, o en segundo) no depende
del tiempo que lleve funcionando. No existen envejecimiento ni mayor probabilidad de fallos
al principio del funcionamiento
https://www.uv.es/ceaces/base/modelos%20de%20probabilidad/exponencial.htm

https://www.uv.es/ceaces/base/modelos%20de%20probabilidad/uniforme.htm

distribución gamma

Este modelo es una generalización del modelo Exponencial ya que, en ocasiones,


se utiliza para modelar variables que describen el tiempo hasta que se produce p
veces un determinado suceso.

Su función de densidad es de la forma:

Como vemos, este modelo depende de dos parámetros positivos: α y p. La función


Γ(p) es la denominada función Gamma de Euler que representa la siguiente
integral:

que verifica Γ(p + 1) = pΓ(p), con lo que, si p es un número entero positivo, Γ(p
+ 1) = p!

El siguiente programa permite visualizar la forma de la función de densidad de este


modelo (para simplificar, se ha restringido al caso en que p es un número entero).
Propiedades de la distribución Gamma

1. Su esperanza es pα.

2. Su varianza es pα2

3. La distribución Gamma (α, p = 1) es una distribución Exponencial de


parámetro α. Es decir, el modelo Exponencial es un caso particular de la
Gamma con p = 1.

4. Dadas dos variables aleatorias con distribución Gamma y parámetro α


común

X ~ G(α, p1) y Y ~ G(α, p2)

se cumplirá que la suma también sigue una distribución Gamma

X + Y ~ G(α, p1 + p2).

Una consecuencia inmediata de esta propiedad es que, si tenemos k variables


aleatorias con distribución Exponencial de parámetro α (común) e
independientes, la suma de todas ellas seguirá una distribución G(α,

Una variable aleatoria X es continua si su función de distribución es una función


continua.

En la práctica, se corresponden con variables asociadas con experimentos en los


cuales la variable medida puede tomar cualquier valor en un intervalo: mediciones
biométricas, intervalos de tiempo, áreas, etc.

Ejemplos
 Resultado de un generador de números aleatorios entre 0 y 1. Es el
ejemplo más sencillo que podemos considerar, es un caso particular de una
familia de variables aleatorias que tienen una distribución uniforme en un
intervalo [a, b]. Se corresponde con la elección al azar de cualquier valor
entre a y b.
 Estatura de una persona elegida al azar en una población. El valor que
se obtenga será una medición en cualquier unidad de longitud (m, cm, etc.)
dentro de unos límites condicionados por la naturaleza de la variable. El
resultado es impredecible con antelación, pero existen intervalos de
valores más probables que otros debido a la distribución de alturas en la
población. Más adelante veremos que, generalmente, variables biométricas
como la altura se adaptan un modelo de distribución denominado
distribución Normal y representado por una campana de Gauss.

Dentro de las variables aleatorias continuas tenemos las variables aleatorias


absolutamente continuas.

Diremos que una variable aleatoria X continua tiene una distribución


absolutamente continua si existe una función real f, positiva e integrable en el
conjunto de números reales, tal que la función de distribución F de X se puede
expresar como

Una variable aleatoria con distribución absolutamente continua, por extensión, se


clasifica como variable aleatoria absolutamente continua.

En el presente manual, todas las variables aleatorias continuas con las que
trabajemos pertenecen al grupo de las variables absolutamente continuas, en
particular, los ejemplos y casos expuestos.

Distribución normal

e trata, sin duda, del modelo continuo más importante en estadística, tanto por su
aplicación directa, veremos que muchas variables de interés general pueden
describirse por dicho modelo, como por sus propiedades, que han permitido el
desarrollo de numerosas técnicas de inferencia estadística. En realidad, el nombre
de Normal proviene del hecho de que durante un tiempo se creyó, por parte de
médicos y biólogos, que todas las variables naturales de interés seguían este
modelo.

Su función de densidad viene dada por la fórmula:

que, como vemos, depende de dos parámetros μ (que puede ser cualquier valor
real) y σ (que ha de ser positiva). Por esta razón, a partir de ahora indicaremos de
forma abreviada que una variable X sigue el modelo Normal así: X ~ N(μ, σ). Por
ejemplo, si nos referimos a una distribución Normal con μ = 0 y σ = 1 lo
abreviaremos N(0, 1).

A continuación presentamos la gráfica de esta función de densidad (donde se


pueden cambiar los parámetros):

Como se puede ver, la función de densidad del modelo Normal tiene forma de
campana, la que habitualmente se denomina campana de Gauss. De hecho, a este
modelo, también se le conoce con el nombre de distribución gaussiana.

Propiedades del modelo Normal

1. Su esperanza es μ.
2. Su varianza es σ2 y, por tanto, su desviación típica es σ.
3. Es simétrica respecto a su media μ, como puede apreciarse en la
representación anterior.
4. Media, moda y mediana coinciden (μ).
5. Cualquier transformación lineal de una variable con distribución Normal
seguirá también el modelo Normal. Si X ~ N(μ, σ) y definimos Y = aX + b
(con a ≠ 0), entonces Y ~ N(aμ + b, |a|σ). Es decir, la esperanza de Y será
aμ + b y su desviación típica, |a|σ.
6. Cualquier combinación lineal de variables normales independientes sigue
también una distribución Normal. Es decir, dadas n variables aleatorias
independientes con distribución Xi ~ N(μi, σi) para i = 1, 2, ..., n la
combinación lineal: Y = anXn + an−1Xn−1+ ... + a1X1 + a0 sigue también el
modelo Normal:

http://www.ub.edu/stat/GrupsInnovacio/Statmedia/demo/Temas/Capitulo4/B0C4m1t4.htm

La distribución normal estándar, o tipificada o reducida, es aquella que tiene


por media el valor cero, μ = 0, y por desviación típica la unidad, σ =1.
Su función de densidad es:

Su gráfica es:

La probabilidad de la variable X dependerá del área del recinto sombreado


en la figura. Y para calcularla utilizaremos una tabla.
Tipificación de la variable
Para poder utilizar la tabla tenemos que transformar la variable X que sigue una
distribución N(μ, σ) en otra variable Z que siga una distribución N(0, 1).

https://www.superprof.es/apuntes/escolar/matematicas/probabilidades/distribucion-
normal/distribucion-normal-estandar.html
Aproximación de la distribución binomial por la normal
Vamos a representar en un sistema de referencia distribuciones binomiales para distintos valores
de n y p=0,3.

Queremos aproximar estas distribuciones a una distribución normal estándar :


Se puede apreciar en los gráficos anteriores como a medida que aumenta n mejora el
parecido de las gráficas de barras de las distribuciones binomiales (discretas) a la gráfica de
la distribución normal estándar (continua), pero con el inconveniente de que se produce un
desplazamiento hacia la derecha de la distribución binomial a medida que aumenta n.

Este inconveniente se evita, corrigiendo la variable aleatoria, Sj, restando la media (para
corregir el desplazamiento) y dividiendo por la desviación típica(para ajustar la dispersión)
:

A la nueva variable, xj le asignamos b(n,p,j). La representación, para el caso, n = 270 y


p=0,3 , del diagrama de barras de la binomial corregida y de la función de densidad de la
distribución normal estándar es :
Cuando n aumenta, la longitud de las barras disminuye, cosa lógica, porque la suma de las
longitudes de todas las barras es 1 (función de probabilidad definida sobre una variable
aleatoria discreta) ; mientras que el área bajo la función de densidad (definida sobre una
variable aleatoria continua) de la distribución normal estandar, también es 1.

Para ajustar ambas funciones, tendríamos que conseguir que la suma de las áreas de los
rectángulos que forman el diagrama de barras fuera 1. Como la distancia entre las barras es
constante y la suma de las alturas de todas las barras es 1, el área bajo los rectángulos del
diagrama de barras es igual a la distancia entre barras consecutivas.

La distancia entre barras consecutivas es :

Por tanto, para que la suma de las áreas de los ractángulos entre barras consecutivas sea 1,
es suficiente multiplicar por la inversa de la distancia entre barras consecutivas ; es decir, a
cada x j , le asignamos :

Si la representamos para el caso n=270 y p=0,3, junto con la función de densidad de la


distribución normal estándar, tenemos :
Como se puede apreciar en la gráfica se ajustan bien ambas funciones. En resumen:

Aproximación de la distribución binomial por la normal


Una dstribución binomial B(n,p) se puede aproximar por una distribución normal, siempre que n
sea grande y p no esté muy próxima a 0 o a 1. La aproximación consiste en utilizar una
distribución normal con la misma media y desviación típica que la distribución binomial.

En la practica se utiliza la aproximación cuando :

En cuyo caso :

Y tipificando se obtiene la normal estándar correspondiente:

S-ar putea să vă placă și