Sunteți pe pagina 1din 22

UNIVERSIDAD

RICARDO PALMA

Estadística y Probabilidades

 Tema: Principales Variables Aleatorias


 Alumno: Castro Santos Carlos Enrique
 Código: 201710618
 Profesora: Alicia Chiok G.

2019
INTRODUCCIÓN

En este trabajo abarcara acerca de las principales variables aleatorias, que


trata acerca de una variable X que puede tomar un conjunto de valores {x0,
x1, x2, ... xn-1}, con probabilidades {p0, p1, p2, ... pn-1}. Por ejemplo, en
la experiencia de lanzar monedas, los posibles resultados son {cara, cruz}, y
sus probabilidades son {1/2, 1/2}. En la experiencia de lanzar dados, los
resultados posibles son {1, 2, 3, 4, 5, 6} y sus probabilidades respectivas son
{1/6, 1/6, 1/6, 1/6, 1/6, 1/6}, en donde da un valor numérico a cada suceso
en el espacio Ω de los resultados posibles del experimento. Esto se distinguen
entre: variables aleatorias discretas y variables aleatorias continuas.
Luego contendrá una parte de las tipas de distribuciones variables aleatorias
discretas y continuas, función de densidad, esperanza matemática y varianza
en donde contendrá la aplicación, además de ejercicios para su mejor
entendimiento.
INDICE

1. Variables Aleatorias…………………………………………………4
1.1. Variables Aleatorias Discretas……………………….…….5
1.2. Variables Aleatorias Continuas ……………………….…...13
2. Ejercicios de Aplicación……………………………………………..19
3. Conclusión………………………………………………..…….……21
4. Bibliografía ………………………………………………….………22
VARIABLE ALEATORIA
 Definición:
Una función que asocia un número real, perfectamente definido, a cada punto
muestral. A veces las variables aleatorias (v.a.) están ya implícitas en los
puntos muestrales.
Ejemplo 1: Experiencia consistente en medir la presión sistólica de
100 individuos. Un punto muestral (resultado de un experimento) es ya un
número (presión sistólica). La v.a. está implícita.
Ejemplo 2: En el ejemplo de la mujer portadora de hemofilia.
W = {sss, ssn, sns, snn, nss, nsn, nns, nnn}
Se podría definir una variable que asignara a cada punto muestral el número
de orden en el espacio muestral.
X: sss 1; ssn 2; sns 3;...
Pero otra posible v.a.: a cada punto muestral el número de s. X: sss
3; ssn 2; ...
 Tipos de variables aleatorias:
Los conjuntos pueden ser:
 discretos: número finito o infinito numerable de elementos.
 continuos: número infinito no numerable de elementos.
Las v.a. definidas sobre espacios muestrales discretos se llaman v.a. discretas
y las definidas sobre espacios muestrales continuos se llaman continuas.
Una v.a. puede ser continua, aunque nosotros sólo podamos acceder a un
subconjunto finito de valores. P.e. la presión arterial es una v.a. continua pero
sólo podemos acceder a un conjunto finito de valores por la limitación de los
aparatos de medida.
En general, las medidas dan lugar a v.a. continuas y los conteos a v.a.
discretas.
PRINCIPALES VARIABLES ALEATORIAS
DISCRETAS
Diremos que una variable aleatoria es discreta si su recorrido es finito o
infinito numerable.
Generalmente, este tipo de variables van asociadas a experimentos en los
cuales se cuenta el número de veces que se ha presentado un suceso o donde
el resultado es una puntuación concreta.
Los puntos del recorrido se corresponden con saltos en la gráfica de la
función de distribución, que correspondería al segundo tipo de gráfica visto
anteriormente.
Distribución uniforme
La distribución uniforme es la que corresponde a una variable que toma todos
sus valores, x1, x2... , xk, con igual probabilidad; el espacio muestral debe ser
finito.
Si la variable tiene k posibles valores, su función de probabilidad sería:

donde k es el parámetro de la distribución (un parámetro es un valor


que sirve para determinar la función de probabilidad o densidad de una
variable aleatoria)
La media y la varianza de la variable uniforme se calculan por las
expresiones:

El histograma de la función toma el aspecto de un rectángulo, por ello, a la


distribución uniforme se le suele llamar distribución rectangular.
Distribución binomial
La distribución binomial es típica de las variables que proceden de un
experimento que cumple las siguientes condiciones:
 El experimento está compuesto de n pruebas iguales, siendo n un
número natural fijo.
 Cada prueba resulta en un suceso que cumple las propiedades de la
variable binómica o de Bernouilli, es decir, sólo existen dos posibles
resultados, mutuamente excluyentes, que se denominan generalmente
como éxito y fracaso.
 La probabilidad del ‚éxito (o del fracaso) es constante en todas las
pruebas. P(éxito) = p ; P(fracaso) = 1 - p = q
 Las pruebas son estadísticamente independientes.

En estas condiciones, la variable aleatoria X que cuenta el número de ‚éxitos


en las n pruebas se llama variable binomial. Evidentemente, el espacio
muestral estar compuesto por los números enteros del 0 al n. Se suele decir
que una variable binómica cuenta objetos de un tipo determinado en un
muestreo de n elementos con reemplazamiento.

La función de probabilidad de la variable binomial se representa como


b(x,n,p) siendo n el número de pruebas y p la probabilidad del ‚éxito. n y p
son los parámetros de la distribución.
La manera más fácil de calcular de valor de números combinatorios, como
los incluidos en la expresión anterior, es utilizando el triángulo de Tartaglia

La media y la varianza de la variable binomial se calculan como:


Media = μ = n p
Varianza = σ2 = n p q
Gráficamente el aspecto de la distribución depende de que sea o no
simétrica Por ejemplo, el caso en que n = 4:
Distribución multinomial
La distribución multinomial es esencialmente igual a la binomial con la única
diferencia de que cada prueba tiene más de dos posibles resultados
mutuamente excluyentes.
Si tenemos K resultados posibles (Ei , i = 1, ... , K) con probabilidades fijas
(pi , i = 1, ... , K), la variable que expresa el número de resultados de cada
tipo obtenidos en n pruebas independientes tiene distribución multinomial.

La probabilidad de obtener x1 resultados E1, x2 resultados E2, etc. se


representa como:
Los parámetros de la distribución son p1,..., pK y n.

Distribución hipergeométrica
Una variable tiene distribución hipergeométrica si procede de un
experimento que cumple las siguientes condiciones:
 Se toma una muestra de tamaño n, sin reemplazamiento, de un
conjunto finito de N objetos.
 K de los N objetos se pueden clasificar como ‚éxitos y N - K
como fracasos.
X cuenta el número de ‚éxitos obtenidos en la muestra. El espacio muestral
es el conjunto de los números enteros de 0 a n, ó de 0 a K si K < n.
En este caso, la probabilidad del ‚éxito en pruebas sucesivas no es constante
pues depende del resultado de las pruebas anteriores. Por tanto, las pruebas
no son independientes entre sí.
La función de probabilidad de la variable hipergeométrica es:

Los parámetros de la distribución son n, N y K.


 Los valores de la media y la varianza se calculan según las ecuaciones:
 La media de la variable aproximada (μ = n p = n (K / N)) es la misma
que la de la variable antes de la aproximación; sin embargo, la
varianza de la variable binomial es ligeramente superior a la de la
hipergeométrica.

El aspecto de la distribución es bastante similar al de la binomial. Como


ejemplo, mostramos los casos análogos a los de las binomiales del apartado
anterior (p inicial = 0,25 y n = 4)

Distribución multihipergeométrica:
Este variable se define igual que la hipergeométrica con la única diferencia
de que se supone que el conjunto de objetos sobre el que se muestrea se
divide en R grupos de A1, A2,..., AR objetos y la variable describe el número
de objetos de cada tipo que se han obtenido (x1, x2,..., xR)

Esta situación es análoga a la planteada en el caso de la distribución


multinomial. La función de probabilidad es:
Distribución de Poisson
Una variable de tipo Poisson cuenta ‚éxitos (es decir, objetos de un tipo
determinado) que ocurren en una región del espacio o del tiempo.
El experimento que la genera debe cumplir las siguientes condiciones:
1. El número de éxitos que ocurren en cada región del tiempo o del
espacio es independiente de lo que ocurra en cualquier otro tiempo o
espacio disjunto del anterior.
2. La probabilidad de un ‚éxito en un tiempo o espacio pequeño es
proporcional al tamaño de este y no depende de lo que ocurra fuera de
él.
3. La probabilidad de encontrar uno o más ‚éxitos en una región del
tiempo o del espacio tiende a cero a medida que se reducen las
dimensiones de la región en estudio.
Como consecuencia de estas condiciones, las variables Poisson típicas son
variables en las que se cuentan sucesos raros.
La función de probabilidad de una variable Poisson es:

El parámetro de la distribución es λ que es igual a la media y a la varianza


de la variable.

Esta característica puede servirnos para identificar a una variable Poisson en


casos en que se presenten serias dificultades para verificar los postulados de
definición.
 La varianza de la variable aproximada es ligeramente superior a la de
la variable binomial.

Las variables Poisson cumplen la propiedad de que la suma de variables


Poisson independientes es otra Poisson con media igual a la suma las medias.

El aspecto de la distribución depende muchísimo de la magnitud de la


media. Como ejemplo, mostramos tres casos con λ = 0,5 (arriba a la
izquierda), λ = 1,5 (arriba a la derecha) y λ = 5 (abajo) Obsérvese que la
asimetría de la distribución disminuye al crecer λ y que, en paralelo, la
gráfica empieza a tener un aspecto acampanado.
PRINCIPALES VARIABLES ALEATORIAS
CONTINUAS
Una variable aleatoria X es continua si su función de distribución es una
función continua.
En la práctica, se corresponden con variables asociadas con experimentos en
los cuales la variable medida puede tomar cualquier valor en un intervalo:
mediciones biométricas, intervalos de tiempo, áreas, etc.
Ejemplos:

 Resultado de un generador de números aleatorios entre 0 y 1. Es


el ejemplo más sencillo que podemos considerar, es un caso particular
de una familia de variables aleatorias que tienen una distribución
uniforme en un intervalo [a, b]. Se corresponde con la elección al azar
de cualquier valor entre a y b.
 Estatura de una persona elegida al azar en una población. El valor
que se obtenga será una medición en cualquier unidad de longitud (m,
cm, etc.) dentro de unos límites condicionados por la naturaleza de la
variable.

Dentro de las variables aleatorias continuas tenemos las variables aleatorias


absolutamente continuas.
Diremos que una variable aleatoria X continua tiene una distribución
absolutamente continua si existe una función real f, positiva e integrable en
el conjunto de números reales, tal que la función de distribución F de X se
puede expresar como
Distribución normal o de Gauss
La distribución normal fue definida por De Moivre en 1733 y es la
distribución de mayor importancia en el campo de la estadística.
Las variables normales tienen una función de densidad con forma de
campana a la que se llama campana de Gauss.
Su función de densidad es la siguiente:

Los parámetros de la distribución son la media y la desviación típica, μ y σ,


respectivamente. La curva normal cumple las siguientes propiedades:
 El máximo de la curva coincide con la media.
 Es perfectamente simétrica respecto a la media (g1 = 0).
 La curva tiene dos puntos de inflexión situados a una desviación típica
de la media. Es convexa entre ambos puntos de inflexión y cóncava
en ambas colas.
Afortunadamente, cualquier que sea la variable normal, X, se puede
establecer una correspondencia de sus valores con los de otra variable con
distribución normal, media 0 y varianza 1, a la que se llama variable normal
tipificada o Z. La equivalencia entre ambas variables se obtiene mediante la
ecuación:

La función de distribución de la variable normal tipificada está tabulada y,


simplemente, consultando en las tablas se pueden calcular probabilidades en
cualquier intervalo que nos interese.
De forma análoga a lo pasaba con las variables Poisson, la suma de variables
normales independientes es otra normal.

Histograma de una normal Histograma de una muestra de


idealizada una variable normal
Distribución Gamma (Γ)
La distribución gamma se define a partir de la función gamma, cuya
ecuación es:

 La función de densidad de la distribución gamma es:

α y β son los parámetros de la distribución.


 La media y la varianza de la variable gamma son:
Distribución exponencial
Es un caso particular de la distribución gamma cuando α = 1. Su función de
densidad es:

Su parámetro es β.
 La media y la varianza de la distribución exponencial son:

Distribución Chi-cuadrado (c2)


Es otro caso particular de la distribución gamma para el caso β = 2 y α = n /
2, siendo n un número natural.
 Su función de densidad es:

 El parámetro de la distribución c2 es n y su media y su varianza son,


respectivamente:

Otra forma de definir la distribución c2 es la siguiente: Supongamos que


tenemos n variables aleatorias normales independientes, X1,..., Xn, con media
μi y varianza (i = 1 ... n), la variable definida como
tiene distribución c2 con n grados de libertad y se le denomina c2n.

Variables chi-cuadrado con valores de progresivamente


mayores son cada vez menos asimétricas.

Distribución T de Student
Supongamos dos variables aleatorias independientes, una normal tipificada,
Z , y otra con distribución c2 con n grados de libertad, la variable definida
según la ecuación:

 La función de densidad de la distribución t es:


EJERCICIOS DE APLICACIÓN
Ejemplo 1: Sea X una variable aleatoria con funci´on de distribuci´on

F es derivable en R − {0, 1} y

Entonces, podemos definir:

Que es continua salvo en X=0.1 y es evidente que :


Ejemplo 2:
Comprobar que la siguiente función es función de densidad. Calcular su
función de distribución y, si X es una variable aleatoria con dicha
distribución, calcular P({0.3 < X ≤ 1.5}).

Dicha función es no negativa y además,

Ejemplo 3: Sea X una variable aleatoria con funci´on masa de probabilidad


P[X = n] = 1 n(n + 1), n = 1, 2, . . .
CONCLUSIÓN

Una variable aleatoria puede concebirse como un valor numérico que está
afectado por el azar. Dada una variable aleatoria no es posible conocer con
certeza el valor que tomará esta al ser medida o determinada, aunque sí se
conoce que existe una distribución de probabilidad asociada al conjunto de
valores posibles. Por ejemplo, en una epidemia de cólera, se sabe que una
persona cualquiera puede enfermar o no (suceso), pero no se sabe cuál de los
dos sucesos va a ocurrir. Solamente se puede decir que existe una
probabilidad de que la persona enferme.

Para trabajar de manera sólida con variables aleatorias en general es


necesario considerar un gran número de experimentos aleatorios, para su
tratamiento estadístico, cuantificar los resultados de modo que se asigne un
número real a cada uno de los resultados posibles del experimento. De este
modo se establece una relación funcional entre elementos del espacio
muestral asociado al experimento y números reales.
BIBLIOGRAFÍA

herzog.economia.unam.mx/profesores/blopez/estadistica-continua.pdf

www.ub.edu/stat/GrupsInnovacio/Statmedia/demo/Temas/Capitulo2/B0C2
m1t5.htm

webpersonal.uma.es/~ipcabrera/resumen_aleatorias.pdf

https://www.ugr.es/~eues/webgrupo/Docencia/MonteroAlonso/estadisticaII
/tema3.pdf

1.

S-ar putea să vă placă și