Sunteți pe pagina 1din 17

Resumen del capítulo 8 en

Matemáticas finita /

matemáticas finita y Cálculo aplicado

Tema: Variables aleatorias y estadísticas

Inicio de estudiante

Verdadero/Falso Quiza

Ejercicios de examen

Tutorial en línea

Resumen de índice

Todo para Matemáticas finitas

Todo para Cálculo

Todo para Matemáticas finitas y Cálculo

Capítulo 7 resumen

Herramientas: Histograma y distribución de probabilidad de distrubución de generadores | Herramientas


de distrubución binomial (Ensayos de Bernoulli) | Distrubución normal de utilidad | Distribución normal
en cuadro

Variable aleatoria | Distribución de probabilidad | Ensayos de Bernoulli y la distrubución binomial |


Medidas de tendencia central: media, Mediana, y modos de conjuntos de datos | media, Mediana, y
modo de una vareable aleatoria | Medidas de Disperción | Varianza y desviación estándar de una
variable aleatoria | Interpretación de la desviación estándar | Estadisticas de una distrubución binomial |
Variable aleatoria continua | Distrubuición uniforme | Variable aleatoria normal | Mas información
sobre las distribuiciones normales
Variable aleatoria

Una Variable aleatoria X es una regla que asigna un valor numérico a cada resultado en el espacio
mestrual de un experimento.

Una vareable aleatoria discreta puede tomar en específico, aislado valor numérico, como resultado de
lanzar un dado, o el número de dolares en una cuenta bancaria escogido de forma aleatoria.

Una variable aleatoria continua puede tomar cualquier valor dentro de un continuo intervalo de tiempo,
como la temperatura en el Parque Central, o la altura de un atleta en centrimetros.

Variable aleatoria discreta que sólo puede asumir finitamente muchos valores (como el resultado de
lanzar un dado) se llama variables aleatorias finitas.

Ejemplo

1. Variable aleatoria finita

En un experimento para simular lanzando tres monedas, sea X el número de caras que muestra despúes
de cada tiro. X es una variable finita que puede asumir los cuatro valores: 0, 1, 2, y 3.

Lanzar monedas

Moneda 1:

Moneda 2:

Moneda 3:

Valor de X:

Borra

2. Variable aleatoria discreta infinita

Lance un dado hasta obtener un 6; X = al número de veces que veces que lo lanzó.

Los valore posibles para X son 1, 2, 3, 4, ... (¡si usted tiene muy mala suerte, podría lanzar un millon de
veces el dado para obtener un 6!)

3. Variable aleatoria continua


Mida la lngitud de un objeto; sea X = longitud en cm.

Principio de página

Distribución de probabilidad

La probabilidad P(X = x) es la probabilidad de que X realiza el valor x. Del mismo modo, la probabilidad
P(a < X < b) es la probabilidad de que X se encuentre entre a y b.

Estas probabilidades pueden ser estimadas, o teoréticas (modeladas) (véa el capítulo 7 de Matematicas
Finitas o el resumen de probabilidad para una discusión de los tipos de probabilidad.)

Para una variable aleatoria finita, la colección de números P(X = x) a medida que varia x se llama la
distrubuición de probabilidad de X. Es frecuentemente útil representar gráficamente la distrubución de
probabilidades por un histograma.

Pulse aquí para una utilidad en-línea que genera cualquier distrubución de probabilidad y también
muestra el histograma.

Ejemplo

Distribución de frecuencia relativa (o probabilidad estimada)

Sea X el número de caras que muestra después de un tiro de tres monedas (véase más arriba). La
siguiente simulación muestra la distrubuición de frecuencia relativa de X.

Lanzar monedas

Moneda 1:

Moneda 2:

Moneda 3:

Valor de X
N

Distribución de frecuencia relativa

0 1 2 3

Borra

Distribución de probabilidad empírica or modelada

Para el experimento anterior, la distribución de probabilidad empírica se muestra por el siguiente


histograma.

Los valores de la distribución de probabilidad se cálcula por el número de combinaciones posibles que
dan 0, 1, 2, o 3 caras.

Principio de página

Los ensayos de Bernoulli y la distribución binomial

Un ensayo de Bernoulli es un experimento con dos posibles resultados, llamado el éxito y el fracaso.
Cada resultado tiene una probabilidad espesificada: p para el éxito y q para el fracaso (de modo que p+q
= 1).

Si realizamos una secuencia de ensayos de Bernoulli independientementes y, a continuación, algunos de


ellos como resultado el éxito y el resto en el fracaso, entonces la probabilidad de exactamente x éxitos
en esa secuencia se da por

P(exactamente x éxitos en n ensayos) = C(n,x)pxqn-x. Nota: q = 1-p


Si X es el número de éxitos en una secuencia de n ensayos independientemente de Bernoulli, con
probabilidad p de éxitos y de fracaso q, entonces se dice ue tiene X una distribución binomial. Esta
distrubución se calcula por la fórmula anterior

P(X = x) = C(n,x)pxqn-x

para cualquier valor de x entre 0 y n.

Para una utilidad en-línea que permite calcular y graficar la distribución de probabilidad para los ensayos
de Bernoulli , pulce aquí.

Ejemplo Supongamos que echamos una moneda tres veces al aire, con p = P(cara) = 0.8 y q = P(cruz) =
0.2. Sea X = número de caras. A continuación, la distrubución se expresa por

X 0 1 2 3

Fórmula 0.23 3(0.8)1(0.2)2 3(0.8)2(0.2)1 0.83

Probabilidad 0.008 0.096 0.384 0.512

La distribución de probabilidad y histograma para el lanzamiento de una moneda justa tres veces al aire
ya hemos calculado más arriba y es tambien representado por una distrubución binomial.

Distrubución de probabilidad binomial estimada

Aquí hay una simulación de la moneda desleal lanzada para el experimento.

Lanzar monedas 50 veces N

Distribución de frecuencias

0 1 2 3

Distribución de frecuencias reletivas

0 1 2 3
Clear

Principio de página

Medidas de tendencia central:

Media, Mediana, y modo de un conjunto de datos

Un conjunto de valores específicos, o "resultados", x1, x2, . . ., xn de una vareable aleatoria X se


denomina una muestra. Si {x1, x2, . . ., xn} es una muestra, entonces la media muestral de la colección es

x1 + x2 + . . .+ xn

∑xi

donde n es el tamaño de la muestra: el número de resultados.

La mediana muestral m es el puntaje de la media (en el caso de un tamaño impar de la muestra), o la


media de los dos resuldados medios (en el caso de una muestra de tamaño par), cuando los resultados
en una muestra se disponen en orden ascendentes.
Un modo mestrual es un puntaje que aparece con más frecuencia en la colección. (Puede ser más de un
modo muestral.)

Si la muestra x1, x2, . . ., xn estamos utilizando se compone de todos los valores de X a partir de toda una
población (Por ejemplo, el puntaje SAT de cada estudiante de secundaria que tomaron la prueba), nos
referimos a la media, mediana, más arriba como la media, mediana, y modo poblacional .

Escribimos la media poblacional como μ en lugar de .

Ejemplo

Considere la siguiente colección de puntajes:

11.5, 3, 5.5, 0.5, 3, 10, 2.5, 4

La suma es ∑i = 40, y n = 8, a fin de que

SX

40

= 5.
Para obtener la mediana muestral, coloque los puntajes en orden creciente, y seleccione los dos
puntajes de la media (porque n es par):

0.5, 2.5, 3, 3, 4, 5.5, 10, 11.5,

La mediana muestral es el promedio, 3.5, de los dos puntajes centrales.

Pues el puntaje de 3 aparece más frecuentamente, sabemos que el modo mestrual es 3.

Principio de página

Media, mediana y modo de una variable aleatoria

Si X es una variable aleatoria finita con valores x1, x2, . . ., xn, la media o valor esperado de X, escrito μ, o
E(X), es

μ = E(X) = x1.P(X = x1) + x2.P(X = x2) + . . . + xn.P(X = xn)

= ∑ (xi.P(X = xi).

La media de X es el menor número m tal que

P(X ≤ m) ≥ 1/2 and P(X ≥ m) ≥ 1/2.

(Esta definición es válida también para las variables continuas.)

Un modo de X es un número m tal que P(X = m) es más grande. Este es el valor más problable de X o los
valores más problables si tiene X varios valores con la misma probabilidad más grande. Para una variable
aleatoria continua, un modo m es un número tal que la función de densidad de probabilidad es máxima
cuando x = m.

El valor esperado, la mediana y el modo de una variable aleatoria es el promedio, mediana, y modo que
esperiamos obtener si tenemos un gran número de los valores de X. En la inversa, si todo lo que
sabemos acerca de X es una colección de valores de X, entonces el promedio, mediana y modo de
aquellos resultados son nuestra mejor estimaciones del valor esperado, la mediana y el modo de X.

Ejemplo

Supongamos que echamos tres veces una moneda al aire, con p = P(cara) = 0.8 y q = P(Cruz) = 0.2. Tome
X = número de caras. Entonces la distrubución (véase más arriba) se da por

x 0 1 2 3
P(x) 0.008 0.096 0.384 0.512

El valor esperado de X se da por

E(X) = ∑ (xi.P(X = xi)

= 0(.008) + 1(.096) + 2(.384) + 3(.512)

= 2.4.

La mediana es 3, ya que P(X ≤ 3) = 1 ≥ 1/2 y P(X ≥ 3) = 0.512 ≥ 1/2. Además, 3 es el valor menos de X con
esta propiedad.

3 es también el modo, ya que su probabilidad es mayor.

Principio de página

Medidas de disperción

Varianza muestral y desviación estándar muestral

Dado un conjunto de números x1, x2, . . . , xn la varianza muestral es

s2 =

(xi - )2

n-1

(x1 - )2 + (x2 - )2 + ... + (xn - )2

n-1

La desviación estándar muestral es la raíz cuadrada, s, de la varianza muestral.

Varianza muestral y desviación estándar de una población


La varianza de una ploblación y la desviación edtándar población son ligeramente diferentes en las
formulas de las correspondientes estadísticas muestrales. Dado un conjunto de números x1, x2, . . . , xn
la varianza de la población σ2, es

σ2 =

(xi - )2

(x1 - )2 + (x2 - )2 + ... + (xn - )2

La desviación estándar de la población, σ, es la raíz cuadrada de la varianza de la población.

Para leer más acerca de la diferencia entre la varianza y la desviación estandar de la población y de una
muestra, vaya a nuestra pagina en línea de texto: Distrubuciónes muestrales.

Ejemplo

Considere la siguiente colección de puntajes examinadas anteriormente.

11.5, 3, 5.5, 0.5, 3, 10, 2.5, 4

Vimos anteriormente que la media muestral es 5 (ver ejemplo "Media, Mediana, y modo de conjunto de
datos" mas arriba). La siguiente tabla muestra los cuadros de la diferencias desde la media, que
utilizamos para calcular la varianza muestral y la desviación estándar.
xi 11.5 3 5.5 0.5 3 10 2.5 4

x- 6.5 -2 0.5 -4.5 -2 5 -2.5 -1

(x-)2 42.25 4 0.25 20.25 4 25 6.25 1

La suma de los datos en la fila inferior es ∑ (xi - )2 = 103. Por lo tanto,

s2 =

(xi - )2

n-1

103

14.714

Además,

s = 14.7141/2 3.836.

Para calcular la varianza de población, se divide 103 por n = 8 en lugar de 7, consiguiendo

σ2 = 12.875

σ 3.588

Principio de página

Varianza y desviación estándar de una variable aleatoria

Si X es una variable aleatoria, su varianza se define como

σ2 = E( [X - μ]2 ).
Su desviación estándar se define como la raíz cuadrada σ de la varianza. Una fórmula alternativa para la
varianza, útil para el cálculo, es

σ2 = E(X2) - μ2.

La varianza y la desvianción estándar de una variable aleatoria son las varianza muestral y la desviación
estándar muestral de que esperamos obtener si tenemos un gran número de X-resultados. A la inversa,
si todo lo que sabemos acerca de X es una colección de X-resultados, entonces la varianza muestral y la
desviación estándar muestral de los resultados son nuestra mejor estimaciones de la varianza y
desviación estándar de X.

Ejemplo

Veamos de nuevo el experimento de echar tres veces una moneda al aire, con p = P(cara) = 0.8 y q =
P(crúz) = 0.2. (X = número de caras.) La siguenta es la distrubución, incluyendo los valores de x2.

x 0 1 2 3

x2 0 1 4 9

Probabilidad 0.008 0.096 0.384 0.512

Vimos anteriormente que μ = 2.4. Además,

E(X2) = ∑ (xi2.P(X = xi)

= 0(.008) + 1(.096) + 4(.384) + 9(.512)

= 6.24.

Por lo tanto,

σ2 = E(X2) - μ2

= 6.24 - 2.42 = 0.48,

σ = 0.481/2 0.6928.

Principio de página
Interpretación de la desviación estándar

La regla de Chebyshev

Para un conjunto de datos, lo suiguiente es cierto.

Por lo menos 3/4 de los resultados entran dentro de 2 desviaciones estándar de la media (en el intervalo
[-2s, +2s] para las muestras o [μ-2σ, μ+2σ] para las poblaciones).

Por lo menos 8/9 de los resultados entran dentro de 3 desviaciones estándar de la media (en el intervalo
[-3s, +3s] para las muestras o[μ-3σ, μ+3σ] para las poblaciones).

Por lo menos 15/16 de los resultados entran dentro de 4 desviaciones estándar de la media (en el
intervalo [-4s, +4s] para las muestra o [μ-4σ, μ+4σ] para las poblaciones).

...

Por lo menos 1-1/k2 de los resultados entran dentro de k de las desviaciones estándar de la media (en el
intervalo [-ks, +ks] para las muetras o [μ-kσ, μ+kσ] para las poblaciones).

Regla Empiríca

Para un conjunto de datos, cuya distrubución de frecuencia es la "forma de campana" y simétrica (como
en la figura), lo siguiente es cierto.

Aproximadamente el 68% de los resultados entran dentro de 1 desviación estándar de la media (en el
intervalo [-s, +s] para las muestras o [μ-σ, μ+σ] para las poblaciones).

Aproximadamente el 95% de los resultados entran dentro de 2 desviación estándar de la mediasta (en el
intervalo [-2s, +2s] para las muestras o [μ-2σ, μ+2σ] para las poblaciones).

Aproximadamente el 99.7% de los resultados entran dentro de 3 desviación estándar dela media (en el
intervalo [-3s, +3s] para las muestras o [μ-3σ, μ+3σ] de las poblaciones).

Ejemplo

En cuanto a la distrubución binomial inmediatamente anterior, hemos


E(X) = 2.4;

s(X) = 0.481/2 0.69

La regla de Chebyshev's ahora dice:

k = 2: P(1.02 ≤ X ≤ 3.78) ≥ 0.75

k = 3: P(0.33 ≤ X ≤ 4.47) ≥ 0.89

Sin embargo, no podemos aplicar la regla empírica de la presente distrubución (mire la disribución de
probabilidad en el cuadro anterior y observe que no es simétrica).

Ejemplo de la regla empírica

Si la media de una muestra con una distribución simétrica y en la forma de campana es de 20, con
desviación estándar s = 2, entonces aproximadamente el 95% de los resultados se encuentran en el
intervalo [16, 24].

Preincipio de página

Estadísticas de una distrubución binomial

Si X es el número de éxitos en una secuencia de n ensayos independientes de Bernoulli, con probabilidad


de éxito p en cada ensayo y la preobabilidad q = 1p de fracaso, y entonces

μ = np

σ2 = npq.

Para calcular el modo de X, tome (n+1)p y redondee por lo bajo (si es necesario) para obtener un
número entero. Si (n+1)p es un número entero, entonces todos dos de (n+1)p - 1 y (n+1)p será modos.

Si n es grande y p no está demasiado cerca a 0 o 1, entonces la mediana es aproximadamente igual a la


media, np (que será también el modo en este caso).
Ejemplo

En cuanto a la moneda del experimento anterior, con n = 3, p = P(cara) = 0.8 y q = P((cruz) = 0.2, nos
encontramos que

μ = np = 3(0.8) = 2.4,

σ2 = npq = 3(0.8)(0.2) = 0.48,

que confirma los resultados anteriores.

Principio de página

Variable aleatoria continua

Una variable aleatoria continua X puede tomar cualquier valor real. La probabilidad P(a ≤ X ≤ b), se
especifica por medio de una curva de densidad de preobabilidad , una curva situada por encima del eje x
tal que la área total entre la curva y el eje x es igual a 1.

La probabilidad P(a ≤ X ≤ b) se da por la átra delimitada por la curva, el eje x, y las líneas x = a y x = b.

Ejemplo

Para un análisis detallada de varios ejemplos (las distrubuciones uniforme, exponencial, normal y beta)
mire la sección en-línea sobre las funciones de densidad de probabilidad .

Principio de página

Distribución uniforme

Una distribución uniforme finita en una distribución en la que todos los valores de X son igualmente
probables. Una distribución uniforme continua es aquella cuya función de densidad es una línea
horizonta.

Ejemplo

El experimento: Se tira al aire un dado y observa el número mas arriba.

La variable aleatoria: X = El número más arriba

La distribución de probabilidad es entonces


X 1 2 3 4 5 6

Probabilidad 1/6 1/6 1/6 1/6 1/6 1/6

Principio de página

Variable aleatoria normal

La más importante tipo de variable aleatoria continua es la variable aleatoria normal. Es una variable con
una curva de densidad en forma de campana dada por la siguiente ecuación.

Variable aleatoria estándar

La Variable aleatoria estándar Z es una variable aleatoria normal con medio 0 y desviación estándar 1.
Las probabilidades de la forma

P(a ≤ Z ≤ b)

se puede calcular con la ayuda de una tabla de distribución normal (tambien en el apéndice de
Matematicas finitos).

Para calcular áreas bajo la curva normales sin tener que usar una tabla, pruebe nuetra Utilidad para
distribuciones normales.

Ejemplo

Si Z es la variable normal estándar, entonces

P(0 ≤ Z ≤ 0.5) 0.1915.

El área correspondiente bajo la curva en forma de campana se ilustra en el diagrama siguiente.

Para texto en-linea sobre la distribución uniforme y su papel en disribuciones de medias mustrales vea
nuestra página en linea: Distrubuciones muestrales.
Para una discución de esta y otras distrubuciones (uniforme, exponencial y distrubuciones beta) basada
en el cálculo, vaya a la sección en-línea sobre las funciones de densidad de probabilidad.

Preincipio de página

Más sobre distribuciones normales

Probabilidad de una variable con distrubución normal estar dentro de k desviaciones estándar de su
media

Sea X una variable aleatoria normal con media y desviación estándar s. Entonces:

P(s ≤ X ≤ +s) = 0.6826

P(2s ≤ X ≤ +2s) = 0.9545

P(3s ≤ X ≤ +3s) = 0.9973

Aproximación normal a una distrubución binomial.

Si X es un el número de éxitos en una secuencia de n ansayos independientes de Bernoulli, con


probabilidad de éxito p en cada ensayo, y si el rango de valores de X tres desviaciones estándar por
encima y por debajo de la media se encuentra en su totalidad dentro de el rango de 0 a n (los posibles
valores de X), entonces

P(a ≤ X ≤ b) es aproximadamente igual a P(a-0.5 ≤ Y ≤ b+0.5)

donde Y tiene una distrubución normal con la misma media y desviación estándar que X, es decir, = np y
s = (n.p.(1-p))1/2.

principio de página

última actualización: Marzo, 2009

Derechos de autor © Stefan Waner e

Princio de página

S-ar putea să vă placă și