Sunteți pe pagina 1din 27

UNIVERSIDAD RURAL DE GUATEMALA

Carrera: Abogacía y Notariado


Sede: 079, Tejutla S.M
Estudiante y Carné: Kevin Rolando Pérez López 16-079-0001
Semestre Académico y Año: Cuarto Semestre, 2017
Docente: Ing. Kilbert Velásquez

Texto Paralelo de la Asignatura


(Estadística I)

Guatemala, 28 de Octubre de 2017


INTRODUCCIÓN

En los espacios muéstrales finitos Un proceso estocástico es una sucesión finita de experimentos
aleatorios, cada uno de ellos con un nº finito de resultados posibles. Se representan con diagrama
de árbol.

La regla de la adición establece que la probabilidad de ocurrencia de cualquier evento en particular


es igual a la suma de las probabilidades individuales, si es que los eventos son mutuamente
excluyentes, es decir, que dos no pueden ocurrir al mismo tiempo.

La probabilidad condicional es la probabilidad de que ocurra un evento A, sabiendo que también


sucede otro evento B. La probabilidad condicional se escribe P (A|B), y se lee «la probabilidad
de A dado B».

La regla de multiplicación establece que la probabilidad de ocurrencia de dos o más eventos


estadísticamente independientes es igual al producto de sus probabilidades individuales.

El teorema de Bayes se utiliza para revisar probabilidades previamente calculadas cuando se posee
nueva información.
2.2 NOCIONES BASICAS DE PROBABILIDAD

INTRODUCCIÓN A LA PROBABILIDAD:

ANÁLISIS COMBINATORIO

A) FACTORIAL.-
La factorial está relacionada con el cálculo del número de maneras en las que un conjunto
de cosas puede arreglarse en orden. El número de maneras en el que la n cosas pueden
arreglarse en orden es:

Donde n! se llama el factorial de n y 0! se define como 1

B) PERMUTACIONES.
En muchos casos se necesita saber el número de formas en las que un subconjunto de un
grupo completo de cosas puede arreglarse en orden. Cada posible arreglo es llamado
permutación. Si un orden es suficiente para construir otro subconjunto, entonces se trata de
permutaciones.

El número de maneras para arreglar r objetos seleccionados a la vez de n objetos en orden,


es decir, el número de permutaciones de n elementos tomados r a la vez es:

C) COMBINACIONES:
En muchos situaciones no interesa el orden de los resultados, sino sólo el número de
maneras en las que r objetos pueden seleccionarse a partir de n cosas, sin consideración de
orden. Si dos subconjuntos se consideran iguales debido a que simplemente se han
reordenado los mismos elementos, entonces se trata de combinaciones.
El número de maneras para arreglar r objetos seleccionados a la vez de n objetos, sin
considerar el orden, es decir, el número de combinaciones de n elementos tomados r a la
vez es:
CONCEPTOS BÁSICOS:

A) EXPERIMENTO.-
Es toda acción sobre la cual vamos a realizar una medición u observación, es decir
cualquier proceso que genera un resultado definido
.
B) EXPERIMENTO ALEATORIO.-
Es toda actividad cuyos resultados no se determinan con certeza. Ejemplo: lanzar una
moneda al aire. No podemos determinar con toda certeza ¿cuál será el resultado al lanzar
una moneda al aire?, por lo tanto constituye un experimento aleatorio.

C) ESPACIO MUESTRAL (S).-


Es un conjunto de todos los resultados posibles que se pueden obtener al realizar un
experimento aleatorio. Ejemplo: sea el experimento E: lanzar un dado y el espacio maestral
correspondiente a este experimento es: S = (1, 2, 3, 4, 5, 6.

D) PUNTO MUESTRAL.-
Es un elemento del espacio maestral de cualquier experimento dado.

E) EVENTO O SUCESO.-
Es todo subconjunto de un espacio maestral. Se denotan con letras mayúsculas: A, B, etc.
Los resultados que forman parte de este evento generalmente se conocen como "resultados
favorables". Cada vez que se observa un resultado favorable, se dice que "ocurrió" un
evento. Ejemplo: Sea el experimento E: lanzar un dado. Un posible evento podría ser que
salga número par. Definimos el evento de la siguiente manera: A = sale número par = (2, 4,
6(, resultados favorables n(E) = 3

Los eventos pueden ser:


1. Evento cierto.- Un evento es cierto o seguro si se realiza siempre. Ejemplo: Al
introducirnos en el mar, en condiciones normales, es seguro que nos mojaremos.

2. Evento imposible.- Un evento es imposible si nunca se realiza. Al lanzar un dado una sola
vez, es imposible que salga un 10

3. Evento probable o aleatorio.- Un evento es aleatorio si no se puede precisar de antemano


el resultado. Ejemplo: ¿Al lanzar un dado, saldrá el número 3?

F) PROBABILIDAD.-
Es el conjunto de posibilidades de que un evento ocurra o no en un momento y tiempo
determinado. Dichos eventos pueden ser medibles a través de una escala de 0 a 1, donde el
evento que no pueda ocurrir tiene una probabilidad de 0 (evento imposible) y un evento que
ocurra con certeza es de 1 (evento cierto).

La probabilidad de que ocurra un evento, siendo ésta una medida de la posibilidad de que un
suceso ocurra favorablemente, se determina principalmente de dos formas: empíricamente (de
manera experimental) o teóricamente (de forma matemática).
1. Probabilidad empírica.- Si E es un evento que puede ocurrir cuando se realiza un
experimento, entonces la probabilidad empírica del evento E, que a veces se le
denomina definición de frecuencia relativa de la probabilidad, está dada por la siguiente
fórmula:

Nota: P (E), se lee probabilidad del evento E

2. Probabilidad teórica.- Si todos los resultados en un espacio muestral S finito son


igualmente probables, y E es un evento en ese espacio muestral, entonces la probabilidad
teórica del evento E está dada por la siguiente fórmula, que a veces se le denomina la
definición clásica de la probabilidad, expuesta por Pierre Laplace en su famosa Teoría
analítica de la probabilidad publicada en 1812:

G) POSIBILIDADES.-
Las posibilidades comparan el número de resultados favorables con el número de
resultados desfavorables. Si todos los resultados de un espacio muestral son igualmente
probables, y un número n de ellos son favorables al evento E, y los restantes m son
desfavorables a E, entonces las posibilidades a favor de E sonde de n(E) a m(E), y
las posibilidades en contra de E son de m(E) a n(E)

Ejemplos ilustrativos:
Mathías se le prometió comprar 6 libros, tres de los cuales son de Matemática. Si tiene las
mismas oportunidades de obtener cualquiera de los 6 libros, determinar las posibilidades
de que le compren uno de Matemática.

Solución:
o Número de resultados favorables = n (E) = 3
o Número de resultados desfavorables = m (E) = 3
o Posibilidades a favor son n (E) a m (E), entonces,
o Posibilidades a favor = 3 a 3, y simplificando 1 a 1.

Nota: A las posibilidades de 1 a 1 se les conoce como "igualdad de posibilidades" o


"posibilidades de 50-50"
REGLAS DE LA PROBABILIDAD:

A. REGLA DE LA ADICIÓN DE PROBABILIDADES:

1. REGLA GENERAL PARA EVENTOS NO MUTUAMENTE EXCLUYENTES


Si A y B son dos eventos no mutuamente excluyentes (eventos interesantes), es decir, de
modo que ocurra A o bien B o ambos a la vez (al mismo tiempo), entonces se aplica la
siguiente regla para calcular dicha probabilidad:

En donde:
 El conectivo lógico "o" corresponde a la "unión" en la teoría de conjuntos (o =)
 El conectivo "y" corresponde a la "intersección" en la teoría de conjuntos (y =)
 El espacio muestral (S) corresponde al conjunto universo en la teoría de conjuntos

2. REGLA PARTICULAR O ESPECIAL PARA EVENTOS MUTUAMENTE


EXCLUYENTES

En donde:
 El conectivo lógico "o" corresponde a la "unión" en la teoría de conjuntos (o =)
 El espacio muestral (S) corresponde al conjunto universo en la teoría de conjuntos

B) REGLA DE LA MULTIPLICACIÓN DE PROBABILIDADES:


1. REGLA GENERAL PARA EVENTOS DEPENDIENTES
Si A y B son dos eventos dependientes, es decir, si la ocurrencia de A afecta la probabilidad
de ocurrencia de B, entonces, dicha probabilidad de calcula empleando la siguiente regla:

Nota:
La probabilidad del evento B, calculada bajo la suposición de que el evento A ha ocurrido,
se denomina probabilidad condicional de B, dado A, y se denota por P (B/A).

2. REGLA PARTICULAR O ESPECIAL PARA EVENTOS INDEPENDIENTES


Si A y B son dos eventos independientes, es decir, si el conocimiento de la incidencia de
uno de ellos no tiene efecto en la probabilidad de ocurrencia del otro, entonces, para
calcular la probabilidad de dichos eventos se aplica la siguiente regla:

2.3.1. ESPACIOS MUESTRALES FINITOS

ESPACIO PROBABILÍSTICO FINITO


Su espacio muestral es discreto finito.

Hay al menos 2 sucesos elementales que cumplen.


Procesos estocásticos finitos y diagramas de árbol

Un proceso estocástico es una sucesión finita de experimentos aleatorios, cada uno de ellos con un
nº finito de resultados posibles. Se representan con diagrama de árbol.

Por ejemplo: imaginemos que se lanza una moneda y un dado de seis caras. La probabilidad de
obtener un resultado particular corresponde a la multiplicación de sus probabilidades. Es decir, la
probabilidad de obtener «cara» y un tres será:

Ahora bien, la probabilidad de un suceso cualquiera es la suma de las probabilidades de los


distintos resultados aislados posibles. Así, la probabilidad de sacar siempre un resultado impar en
los dados, independientemente del resultado de la moneda, será:
Espacio probabilístico infinito contable Aquel cuyo espacio muestral es discreto infinito contable.

Por ejemplo:
 La probabilidad de que salga cara en la primera tirada ---->
 La probabilidad de que salga nuevamente cara en la segunda tirada ---->
 La probabilidad de que salga nuevamente cara en la tercera tirada ---->

3.3.3. LEYES DE LA PROBABILIDAD

Medida cuantitativa por medio de la cual se obtiene la frecuencia de un suceso determinado.

La probabilidad es una medida de la certidumbre asociada a un suceso o evento futuro y suele


expresarse como un número entre 0 y 1 (o entre 0 % y 100 %).

Una forma tradicional de estimar algunas probabilidades sería obtener la frecuencia de un


acontecimiento determinado mediante la realización de experimentos aleatorios, de los que se
conocen todos los resultados posibles, bajo condiciones suficientemente estables. Un suceso
puede ser improbable (con probabilidad cercana a cero), probable (probabilidad intermedia) o
seguro (con probabilidad uno).

La teoría de la probabilidad se usa extensamente en áreas como la estadística, la física,


la matemática, las ciencias, la administración, contaduría, economía y la filosofía para sacar
conclusiones sobre la probabilidad discreta de sucesos potenciales y la mecánica subyacente
discreta de sistemas complejos, por lo tanto es la rama de las matemáticas que estudia, mide o
determina los experimentos o fenómenos aleatorios.

TEORÍA DE LA PROBABILIDAD
La probabilidad constituye un importante parámetro en la determinación de las diversas
casualidades obtenidas tras una serie de eventos esperados dentro de un rango estadístico.

Existen diversas formas como método abstracto, como la teoría Dempster-Shafer y la teoría de la
relatividad numérica, esta última con un alto grado de aceptación si se toma en cuenta que
disminuye considerablemente las posibilidades hasta un nivel mínimo ya que somete a todas las
antiguas reglas a una simple ley de relatividad.

La probabilidad de un evento se denota con la letra p y se expresa en términos de una fracción y no


en porcentajes, por lo que el valor de p cae entre 0 y 1. Por otra parte, la probabilidad de que un
evento "no ocurra" equivale a 1 menos el valor de p y se denota con la letra q

Los tres métodos para calcular las probabilidades son la regla de la adición, la regla de la
multiplicación y la distribución binomial.

2.3.3.1. REGLA DE LA ADICION.

La regla de la adición o regla de la suma establece que la probabilidad de ocurrencia de cualquier


evento en particular es igual a la suma de las probabilidades individuales, si es que los eventos son
mutuamente excluyentes, es decir, que dos no pueden ocurrir al mismo tiempo.

Entonces, si A y B son mutuamente excluyentes:


P(A o B) = P(A) U P (B) = P(A) + P (B)
Si A y B no son mutuamente excluyentes, P(A o B) = P(A) + P (B) - P(A y B)

Siendo:
 P(A) = probabilidad de ocurrencia del evento
 A, P (B) = probabilidad de ocurrencia del evento B, y
 P(A y B) = probabilidad de ocurrencia simultánea de los eventos A y B.

3.3.3.2. PROBABILIDAD CONDICIONAL.

PROBABILIDAD CONDICIONADA:
Probabilidad condicional es la probabilidad de que ocurra un evento A, sabiendo que también
sucede otro evento B. La probabilidad condicional se escribe P (A|B), y se lee «la probabilidad
de A dado B».

No tiene por qué haber una relación causal o temporal entre A y B. A puede preceder en el tiempo
a B, sucederlo o pueden ocurrir simultáneamente. Apuede causar B, viceversa o pueden no tener
relación causal. Las relaciones causales o temporales son nociones que no pertenecen al ámbito de
la probabilidad. Pueden desempeñar un papel o no dependiendo de la interpretación que se le dé a
los eventos.
Un ejemplo clásico es el lanzamiento de una moneda para luego lanzar un dado. ¿Cuál es la
probabilidad que en el dado salga un 6 dado que ya haya salido una cara en la moneda? Esta
probabilidad se denota de esta manera: P (6|C). El condicionamiento de probabilidades puede
lograrse aplicando el teorema de Bayes.

DEFINICIÓN:
Dado un espacio de probabilidad y dos eventos (o sucesos) con la probabilidad condicional
de A dado Bestá definida como:

Se puede interpretar como, tomando los mundos en los que B se


cumple, la fracción en los que también se incumple A.

INTERPRETACIÓN
Tomando los casos en los que B se cumple, se puede interpretar
como la parte en los que también se cumple A.

Si el evento B es, por ejemplo, tener la gripe, y el evento A es tener dolor de cabeza, sería la
probabilidad de tener dolor de cabeza cuando se está enfermo de gripe.

PROPIEDADES:
Es decir, si todos los que tienen gripe siempre tienen dolor de cabeza, entonces la probabilidad de
tener dolor de cabeza dado que tengo gripe es 1.

INDEPENDENCIA DE SUCESOS:
Dos sucesos aleatorios A y B son independientes si y sólo si: O sea que si A y B son
independientes, su probabilidad conjunta, ó puede ser expresada como el producto de las
probabilidades individuales. Equivalentemente: En otras palabras, si A y B son independientes, la
probabilidad condicional de A dado B es simplemente la probabilidad de A y viceversa.

EXCLUSIVIDAD MUTUA:

Los conjuntos A y B no tienen intersección. Son


mutuamente excluyentes.
Dos sucesos A y B son mutuamente excluyentes si y
sólo sí. Además, si entonces es igual a 0.

LA FALACIA DE LA PROBABILIDAD CONDICIONAL:


La falacia de la probabilidad condicional se basa en asumir que P(A|B) es casi igual a P(B|A). El
matemático John Allen Paulos analiza en su libro El hombre anumérico este error muy común
cometido por personas que desconocen la probabilidad.

La verdadera relación entre P(A|B) y P(B|A) es la siguiente: (Teorema de Bayes)

Problemas de ejemplo
La paradoja del falso positivo:
La magnitud del error cometido con esta falacia se entiende mejor en términos de probabilidades
condicionales.

Supongamos un grupo de personas de las que el 1 % sufre una cierta enfermedad, y el resto está
bien. Escogiendo un individuo al azar: y
Supongamos que aplicando una prueba a una persona que no tiene la enfermedad, hay una
posibilidad del 1 % de conseguir un falso positivo, esto es: y

Finalmente, supongamos que aplicando la prueba a una persona que tiene la enfermedad, hay una
posibilidad del 1 % de un falso negativo, esto es: y

Ahora, uno puede calcular lo siguiente:


 La fracción de individuos en el grupo que están sanos y dan negativo:
 La fracción de individuos en el grupo que están enfermos y dan positivo:
 La fracción de individuos en el grupo que dan falso positivo:
 La fracción de individuos en el grupo que dan falso negativo:
 Además, la fracción de individuos en el grupo que dan positivo:

Finalmente, la probabilidad de que un individuo realmente tenga la enfermedad, dado un resultado


de la prueba positivo:

En este ejemplo, debería ser fácil ver la diferencia entre las probabilidades condicionadas P
(positivo | enfermo) (que es del 99 %) y P (enfermo | positivo) (que es del 50 %): la primera es la
probabilidad de que un individuo enfermo dé positivo en la prueba; la segunda es la probabilidad
de que un individuo que da positivo en la prueba tenga realmente la enfermedad. Con los números
escogidos aquí, este último resultado probablemente sería considerado inaceptable: la mitad de la
gente que da positivo en realidad está sana.

La probabilidad de tener una enfermedad rara es de 0,001: La probabilidad de que cuando el


paciente está enfermo se acierte en el diagnóstico es de 0,99:

La probabilidad de falso positivo es de 0,05:


Pregunta: Me dicen que he dado positivo, ¿Qué probabilidad hay de que tenga la enfermedad?

2.3.3.2. INDEPENDENCIA Y REGLA DE MULTIPLICACION

REGLA DE LA MULTIPLICACIÓN
La regla de la multiplicación establece que la probabilidad de ocurrencia de dos o más eventos
estadísticamente independientes es igual al producto de sus probabilidades individuales.

 P (A y B) = P (A B) = P (A) P (B) si A y B son independientes.


 P (A y B) = P (A B) = P (A) P (B|A) si A y B son dependientes.

Siendo P (B|A) la probabilidad de que ocurra B habiéndose dado o verificado el evento A.

Un lote contiene "100" objetos de los cuales "20" son defectuosos. Los objetos son seleccionados
uno después del otro para ver si ellos son defectuosos. Suponga que dos objetos son seleccionados
sin reemplazo (significa que el objeto que se selecciona al azar se deja por fuera del lote). ¿Cuál es
la probabilidad de que los dos objetos seleccionados sean defectuosos?
Solución:
Sea los eventos
A1 = {primer objeto defectuoso}, A2 {segundo objeto defectuoso} entonces dos objetos
seleccionados serán defectuosos, cuando ocurre el evento A1n A2 que es la intersección entre los
eventos A1 y A2. De la información dada se tiene que: P (A1) = 20/100; P (A2/A1) = 19/99 así
probabilidad de que los dos objetos seleccionados sean defectuosos es P (A1 n A2) = P (A1) P
(A2/A1) (20/100)(19/99) 19/495 = 0.038

Ahora suponga que selecciona un tercer objeto, entonces la probabilidad de que los tres objetos
seleccionados sean defectuosos es P (A1 n A2 n A3) = P (A1) P (A2/A1) P (A3/A1nA2) (20/100)
(19/99)(18/98) 19/2695 = 0.007

2.3.3. TEOREMA DE BAYES

TEOREMA DE BAYES
El teorema de Bayes se utiliza para revisar probabilidades previamente calculadas cuando se posee
nueva información. Desarrollado por el reverendo Thomas
Bayes en el siglo XVII, el teorema de Bayes es una
extensión de lo que ha aprendido hasta ahora acerca de la
probabilidad condicional.

Comúnmente se inicia un análisis de probabilidades con


una asignación inicial, probabilidad a priori. Cuando se
tiene alguna información adicional se procede a calcular
las probabilidades revisadas o a posteriori. El teorema de
Bayes permite calcular las probabilidades a posteriori y es.

3. VARIABLES ALEATORIAS UNIDIMENSIONALES

3.1. DEFINICION:
En la sección dedicada a la Estadística Descriptiva hemos estudiado las variables estadísticas,
estudiándolas como mediciones que se efectúan sobre los individuos de la muestra. Trabajábamos,
por tanto con números observados después de la realización del experimento.

Si se analizan las variables desde una perspectiva más formal, entendiéndolas como una
abstracción previa a la realización del experimento, reciben el nombre de variables aleatorias (v.
a.), a cuyos posibles resultados se les asocian probabilidades, que desempeñan un papel análogo al
de las frecuencias relativas.

Así, pueden entenderse los desarrollos que se realizarán a continuación como una revisión de los
temas de la sección de Estadística Descriptiva, donde los experimentos ya realizados son
substituidos por experimentos potenciales, y las frecuencias relativas por probabilidades.
Variable aleatoria.- Matemáticamente, se define una variable aleatoria como una aplicación que
a cada suceso elemental del espacio muestral asigna un número real:

xi 2 3 4 5 6 7 8 9 10 11 12
Pi 1/36 2/36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 2/36 1/36

Las variables aleatorias se clasifican en discretas y continuas.


Función de densidad de una variable discreta (a) y continua (b)
Si se considera el experimento que consiste en lanzar dos dados y sumar las puntuaciones de
ambos, la X estudiada es una variable estadística discreta, siendo los valores del experimento su
distribución de frecuencias relativas:

xi 2 3 4 5 6 7 8 9 10 11 12
Fi 1/2 1/2 2/2 2/2 3/2 4/2 3/2 2/2 1/2 0/2 1/2
0 0 0 0 0 0 0 0 0 0 0

Si por el contrario al realizar el experimento se considera lo que puede suceder, analizando los 36
casos posibles y los respectivos casos favorables, obtenemos la distribución de masa de
probabilidad de la v.a. discreta X:

Una variable aleatoria es discreta si toma un conjunto finito (o infinito numerable) de valores.
Estos valores están separados entre sí, y por tanto corresponden a experimentos en los que un
mismo resultado puede ocurrir varias veces, y en consecuencia, tiene interés contarlas.

FUNCIÓN DE MASA DE PROBABILIDAD.-


Sea X una v. a. discreta que toma los valores x1, ...xn, ya ordenados. Se llama función de masa de
probabilidad a la función que asigna a cada xi su probabilidad:
Pi = P(X = xi)

Su representación gráfica es análoga al diagrama de barras de la Estadística Descriptiva. De la


definición se deduce inmediatamente que:
0 = pi = 1

En caso de que el número de valores distintos sea infinito numerable, la segunda propiedad se
escribiría: para unos x1,..., xn,... con probabilidades p1,..., pn.

3.2. DISTRIBUCION DE PROBABILIDAD

FUNCIÓN DE DISTRIBUCIÓN DE UNA V. A- Es aquella que a cada número real x le asocia


la probabilidad de que la variable tome valores menores o iguales ha dicho número:
En el caso de que la v.a. X sea discreta, la probabilidad de F(x0) = P ( X = x) se reduce a sumar las
probabilidades de los valores menores o iguales a x0. Es por tanto una función que acumula la
probabilidad hasta x0, desempeñando un papel análogo al de las frecuencias relativas acumuladas.
Propiedades de F (caso discreto):
0 = F(x) = 1
F (-8) = 0
F (8) = 1
F creciente.
F es constante entre dos valores consecutivos de la variable.
P(a < X < b) = F(b) - F(a).
En resumen, F es escalonada, creciente, con saltos en los puntos xi de amplitud pi, que asocia a
cada valor de la variable la probabilidad acumulada.

MEDIDAS CARACTERÍSTICAS DE UNA VARIABLE ALEATORIA


De modo análogo a la Estadística Descriptiva, en la que definíamos unas medidas que
caracterizaban a una distribución de frecuencias, podemos definir las mismas medidas para
caracterizar a una variable aleatoria discreta (v.a.d.), sin más que reemplazar las frecuencias
relativas por probabilidades.

LAS MÁS IMPORTANTES SON:


Media.- También llamada esperanza matemática o valor esperado, y será representada
por μ ó por E(X). Se calcula con la expresión:

Si X fuese infinito numerable, el sumatorio habría que hacerlo hasta 8.

Varianza.- Va a denotarse por σ2 ó Var(X). Se definirá como:


Nuevamente hay que advertir que el sumatorio sería hasta 8 para el caso infinito
numerable.

Desviación típica.- Se representa por s o Sn.

PROPIEDADES DE LA MEDIA Y LA VARIANZA:

E(a + bX ) = a + b·E(X)
Var(a + bX) = b2·Var(X)
Var(X)=E(X2)-[E(X)] 2

Si g es una función, g(X) es un v. a. que cumple:


 Si X e Y son v. a. cualesquiera, se cumple E( X + Y ) =E(X) + E(Y)
 Si X e Y son v. a. independientes, se cumple E(X·Y) = E(X) · E(Y)
 Si X e Y son v. a. independientes, se cumple Var( X + Y ) = Var(X) + Var(Y)
 Se cumple la desigualdad de Tchebyshev.

Tipificación de una v. a.- Al igual que se vio en la Estadística Descriptiva, las v.a. pueden
tipificarse.
Se conserva la propiedad de que su media es cero y su desviación típica es uno.

PRINCIPALES DISTRIBUCIONES DISCRETAS


I.- Distribución uniforme discreta.-
Una v.a. X se dice que tiene una distribución uniforme sobre n puntos (x1 ,..., xn) si todos los
puntos tienen la misma probabilidad.
Función de masa de probabilidad:
 Media:
 Varianza:

II.- Distribución binomial.-


Hay pruebas en las que interesa distinguir entre los resultados, denominados “éxito” y “fracaso”,
con probabilidades p y q respectivamente, tales que p + q = 1. Si el experimento consiste en
realizar varias veces la misma prueba (la probabilidad de éxito es igual en cada nueva prueba) y
además, las pruebas se realizan con independencia, diremos que estamos ante un proceso de
Bernouilli.

Si en un proceso de Bernouilli se considera la v. a. X =“nº de éxitos en n pruebas”, se dice que esta


variable aleatoria sigue una distribución binomial de parámetros `n' y `p', y se denotará por la
expresión X ∈ Bi( n, p). El número de éxitos está representado por k.

Función de masa de probabilidad:


Media:
E(X) = n·p
Varianza:
Var(X) = n·p·q

EJEMPLO (Binomial):
Una sala de ordenadores tiene 10 terminales. La probabilidad de que un terminal esté ocupado es
de 0.9. Calcular la probabilidad de que 7 ó más terminales estén ocupados.

Se define X = “nº de terminales ocupados”, y se considera que el suceso A es que un terminal esté
ocupado. Por tanto, P(A) = 0.9. Por tanto P(“terminal libre”) = = 0.1.

X ∈ Bi(10, 0.9). La probabilidad de que siete o más terminales estén ocupados es igual a la suma
de la probabilidad de que 7 estén ocupados, más la probabilidad de que estén ocupados 8, más la
probabilidad de que estén ocupados 9, más la probabilidad de que estén ocupados 10.

La probabilidad de que los terminales estén ocupados es de la forma:


P (X= 7) = P(X= 7) + P( X= 8 ) + P(X = 9 ) + P(X= 10 )= 0.0574 + 0.1937 + 0.3874 + 0.3487
=0.9872

III.- Distribución de Poisson.-


La generalización de un suceso de Bernoulli a un soporte continuo se llama proceso de Poisson, al
que se exigirán dos condiciones: que sea estable en el tiempo y que los sucesos llamados “éxito”
aparezcan independientemente. En estas condiciones, la v.a. X= “nº de éxitos ocurridos en el
intervalo considerado” sigue una distribución de Poisson de parámetro λ=n·p, y se denotará de la
forma X ∈ Pois (λ).
Función de masa de probabilidad:
Con k=0, 1,2,…
 Media:
E(X) = λ
 Varianza:
Var(X) = λ

Propiedad.-
EJEMPLO (Poisson):
La probabilidad de que un programa en PASCAL correctamente escrito aborte por causas
desconocidas es de 0.002. Se ejecutan 1200 programas correctamente escritos. Calcular la
probabilidad de que aborten a lo sumo 5.

Se define X = “nº de programas que abortan”, y se considera que el suceso A es que un programa
aborte. Por tanto, P(A) = 0.002. Por tanto P (“no abortar”) = 1- P(A) = 0.998.
Se podría pensar en resolverlo mediante la binomial, pero como se da el caso de que n→ 8 y p→ 0,
entonces sabemos que X ∈Pois (2.4). (0.002·1200 = 2.4).

Lo que se pide es la P(X = 5). Aplicando la fórmula nos queda que:


P(X=k) = e-2.4·(2.4k/k!)
P(X= 5) = P(X = 0) +..+ P(X=5) = 0.097 + 0.2177 + 0.2613 + 0.209 + 0.1254 + 0.0602 = 0.9643.

III.- Distribución Hipergeométrica.-


Se considera una población finita de `N' objetos de los cuales `k' son de la clase `S' y los restantes
`N-k' son de la clase `M'. Se toma una muestra aleatoria, sin reemplazamiento, de tamaño `n' y
definimos X = “nº de objetos de la clase `S' entre los n extraídos”. Si la muestra se hubiese tomado
con reemplazamiento, entonces X seguiría una binomial (n, p), con , pero al no haber
reemplazamiento, las sucesivas extracciones son dependientes, y aunque la probabilidad de éxito
incondicional es la misma, la probabilidad de éxito condicionada a lo que ya ha sucedido varía de
prueba en prueba. En estas condiciones se dice que X sigue una distribución hipergeométrica. Se
denotará por X∈ H(n, N, p)

Para ver esto de una forma más sencilla, se puede decir que `N' es el tamaño del conjunto del cual
se va a extraer la muestra, `n' es el tamaño de la muestra, y `p' es la probabilidad de éxito dentro de
la muestra.

Función de masa de probabilidad:


R es el nº de elementos de N que cumplen la condición requerida por el problema, y N-r es el
número de elementos que no la cumplen.

 Media:
E(X) = n·p
 Varianza:
Var(X) =

La distribución hipergeométrica se utiliza en el muestreo de poblaciones finitas sin


reemplazamiento.

EJEMPLO (D. Hipergeométrica):


Se tiene una baraja de 40 cartas y se extraen 5 sin reemplazamiento. Probabilidad de que 3 sean
oros.

Se define X = “nº oros en las cinco cartas extraídas”.


Se ve que X ∈ H (40, 5, 10/40) = H(40, 5, 0.25) r= 10 (oros en la baraja)

IV.- Distribución geométrica (o de Pascal).-


En las mismas condiciones del experimento binomial, consideramos la v.a. X = “número de
fracasos antes del primer éxito”. La variable así definida sigue una distribución geométr ica de
parámetro p, y se denota X ∈ Pascal (p).

Función de masa de probabilidad:


 Media:
 Varianza:

EJEMPLO (Pascal):
Una pareja desea tener hijos hasta la primera niña. Se pide la probabilidad de que tengan más de
cuatro niños.
Existen dos formas de realizar este ejercicio. Una es sumar las probabilidades desde 5 niños hasta
infinitos niños, y la otra es calcular la probabilidad de que tengan 4 o menos hijos, aprovechando
que P (X=4) = 1 - P(X>4). Por tanto:
P(X > 4)=1-( P(X = 4)+ P(X = 3)+ P(X = 2)+ P(X = 1)+ P(X = 0)).

Calculamos aplicando la fórmula: estamos considerando que la probabilidad de que nazca niño o
niña es igual, y que su valor es 0.5. Luego P(X>4)=1-( 0.0313 + 0.0625 + 0.1250 + 0.25 + 0.5) =
0.03125

V.- Distribución binomial negativa.-


Es una generalización de la distribución anterior. La v.a. considerada es X = “nº de fracasos antes
del éxito `n'”, que sigue una distribución binomial negativa con parámetros “n” y “p”. Se denotará
como X∈BN(j, p).

Función de masa de probabilidad:


 Media:
 Varianza:

RELACIONES ENTRE LAS DISTRIBUCIONES


 Sea X una distribución H(N, n , r). En el caso de que , se puede aproximar por una Bi(n, p).
 Sea X ∈ Bi( n, p). Si se cumple que n·p < 5 y p < 0.1, entonces la distribución de X se
puede aproximar por una Pois (λ), donde λ = n·p.
 Sea X∈ BN ( j, p). Con n = 1 se puede aproximar por una Pascal de parámetro `p'

VARIABLES ALEATORIAS CONTÍNUAS


Una variable aleatoria es continua si puede tomar cualquier valor en un intervalo. Su función de
distribución se definirá:

Propiedades de F (caso continuo):


 0 = F(x) = 1
 F (-8) = 0
 F (8) = 1
 F creciente.
 F es continua
 P(a < X < b) = F(b) - F(a).

En la práctica no es posible conocer el valor exacto de una realización de una v.a. contínua, ya que
al medir lo que se hace es clasificarla dentro de un intervalo más o menos amplio, dependiendo de
la precisión del aparato de medida. En este principio se basa la construcción del histograma. Si se
hace que la amplitud de los intervalos de clase sea cada vez menor, puede verse que los
histogramas tienen una curva cada vez más suave. El límite de los histogramas así construidos,
cuando n→8, y la amplitud de los intervalos tiende a cero, es una curva que recibe el nombre
de función de densidad de la v.a., y que se nota matemáticamente f(x) = F'(x).

Propiedades de f.- Para que una función sea función de distribución, debe cumplir las siguientes
condiciones: f(x) = 0
Hay que comentar que Relación entre F y f . f(x) = F'(X)

PRINCIPALES DISTRIBUCIONES CONTÍNUAS

I.- Distribución uniforme.


Una v.a. que toma valores en un intervalo con probabilidad constante es una distribución uniforme
(X ∈ U(a, b)).

Función de densidad:
 Media:
 Varianza:

II.- Distribución exponencial.


La distribución exponencial surge cuando, en un proceso de Poisson, estamos interesados en la
v.a. X = “tiempo transcurrido entre dos éxitos consecutivos”. Se dice entonces que esta v.a. sigue
una distribución exponencial con parámetro λ ( X ∈ Exp(λ)), donde λ es el número de éxitos por
unidad de tiempo. Xpuede tomar cualquier valor entre cero e infinito.

Función de densidad:
Para resolver una probabilidad, se sabe que:
 Media:
 Varianza:

EJEMPLO:
Supóngase que la duración (en horas) de cierto tubo de radio es una variable aleatoria continua X
con función de densidad.

a. ¿Cuál es la probabilidad de que un tubo dure menos de 200 horas si todavía funciona tras
150 horas de servicio?
Se aplica la fórmula sabiendo que el Valor a es 150 y que el Valor b es 200. Luego, la
respuesta será (e-0.01·200) - (e-0.01·150) = 0.0878

b. ¿Cuál es la probabilidad de que si se instalan tres de estos tubos en un conjunto, solamente


uno de ellos no se haya estropeado al cabo de 150 horas?
Lo primero será hallar la probabilidad de que un tubo cualquiera funcione al cabo de esas
120 horas. Para ello se hace la integral entre 150 horas y cero, que es igual al valor de la
probabilidad de que se produzca el error a las 150 horas (e-0.01·150) - (e-0.01·0) = 0.7769
Ahora se puede resolver aplicando una Bi(3, 0.7769): 0.1160

III.- Distribución normal.


Es la más importante de las distribuciones. También es conocida como Distribución de Gauss o
Distribución de los errores, pues modeliza multitud de fenómenos que se dan en la naturaleza,
como por ejemplo los errores en una medición. Se nota como X ∈ N(μ, σ). Una variable aleatoria
continua X sigue una distribución normal de parámetros μ y σ, siendo μ, σ ∈R y σ > 0, si
su función de densidad es de la forma:

R
 Media:
E(X)= μ
 Varianza:
Var(X) = σ 2

En la práctica, si n > 30 y n·p·q > 5, una binomial Bi(n, p) se aproxima por una normal de la
forma. Otra aproximación útil, ésta referente a la distribución de Poisson es que cuando λ >
5 puede aproximarse por una.

La normal tipificada ó estandarizada se calcula:

EJEMPLO:
Cierto tipo de cuadernos escolares son empaquetados en mazos de 25 cuadernos cada uno por una
máquina que realiza el recuento y empaqueta de forma automática. Con el fin de verificar la
exactitud de la máquina, los mazos se pesan antes de enviarlos a las papelerías. Se sabe que el peso
de los cuadernos individuales es una variable aleatoria con distribución normal de media 40 g. y
desviación típica 3 g. Si se considera que un mazo tiene 25 cuadernos cuando su peso está
comprendido entre 975 y 1025 gramos, hallar la probabilidad de que un mazo que tiene 24
cuadernos sea considerado como si tuviese 25.

Se sabe que un mazo tiene 25 cuadernos, y que el peso de un cuaderno sigue una N(40, 3). Se
considera que un mazo tiene 25 cuadernos si su peso está en (975, 1025). Entonces la probabilidad
de que un mazo de 24 sea considerado como uno de 25 es igual a la probabilidad de que el peso de
ese mazo esté en (975, 1025).
Se halla la esperanza de peso, y la varianza de un mazo de 24: E[S24]=nº cuadernos· peso de los
cuadernos= 24·40 = 960 gramos. Var [S24]=. Para poder usar la tabla de la normal, hay que
tipificar loa datos. Lo hay que calcular es: P(975 = S24 = 1025) Por tanto se tipifica aplicando , y
se realiza el cálculo: =0.9999-0.8461=0.1539. Los valores F (4.42) y F(1.02) se buscan en las
tablas de la normal tipificada.

PROPIEDADES DE LA DISTRIBUCIÓN NORMAL:


La suma de v.a. normales independientes sigue siendo una v.a. normal:

Teorema central del límite.


Si sumamos muchas v.a. independientes, la suma se puede aproximar por una v.a. normal.
Sea una sucesión de v.a. independiente con la misma distribución, de media μ, y varianza σ2.

En teoría de probabilidad, la varianza o variancia (que suele representarse como ) de una variable
aleatoria es una medida de dispersión definida como la esperanza del cuadrado de la desviación de
dicha variable respecto a su media. O en pocas palabras, es la media de los residuos al cuadrado.

Su unidad de medida corresponde al cuadrado de la unidad de medida de la variable: por ejemplo,


si la variable mide una distancia en metros, la varianza se expresa en metros al cuadrado. La
varianza tiene como valor mínimo 0. La desviación estándar (raíz cuadrada de la varianza) es una
medida de dispersión alternativa, expresada en las mismas unidades que los datos de la variable
objeto de estudio.
Hay que tener en cuenta que la varianza puede verse muy influida por los valores atípicos y no se
aconseja su uso cuando las distribuciones de las variables aleatorias tienen colas pesadas. En tales
casos se recomienda el uso de otras medidas de dispersión más robustas.

El término varianza fue acuñado por Ronald Fisher en un artículo publicado en enero de 1919 con
el título The Correlation Between Relatives on the Supposition of Mendelian Inheritance.

Definición:
Si tenemos un conjunto de datos de una misma variable, la varianza se calcula de la siguiente
forma:
Siendo:
 Cada dato
 Número de datos
 Media aritmética de los datos

Variable aleatoria:
Aplicando este concepto a una variable aleatoria con media μ = E [X], se define su varianza,
Var(X) (también representada como o, simplemente σ2), como Desarrollando la definición
anterior, se obtiene la siguiente definición alternativa (y equivalente):

Si una distribución no tiene esperanza, como ocurre con la de Cauchy, tampoco tiene varianza.
Existen otras distribuciones que, aun teniendo esperanza, carecen de varianza. Un ejemplo de ellas
es la de Pareto cuando su índice k satisface 1 < k = 2.
Caso continuo
Si la variable aleatoria X es continua con función de densidad f(x), entonces donde y las integrales
están definidas sobre el rango de X.

Caso discreto
Si la variable aleatoria X es discreta con pesos x1 ↦ p1, ..., xn ↦ pn y n es la cantidad total de
datos, entonces tenemos

Distribución exponencial
La distribución exponencial de parámetro λ es una distribución continua con soporte en el
intervalo [0,8) y función de densidad
Tiene media μ = λ-1. Por lo tanto, su varianza es decir, σ2 = μ2.

Dado perfecto
Un dado de seis caras puede representarse como una variable aleatoria discreta que toma, valores
del 1 al 6 con probabilidad igual a 1/6. El valor esperado es (1+2+3+4+5+6)/6 = 3,5. Por lo tanto, su
varianza es: Propiedades de la varianza muestral.

3.3. ESPERANZA Y VARIANZA

LA MEDIA Y LA VARIANZA DE LAS DISTRIBUCIONES DISCRETAS

MEDIA O ESPERANZA
La media llamada también valor esperado, esperanza matemática o simplemente esperanza de una
distribución de probabilidad discreta es la media aritmética ponderada de todos los resultados
posibles en los cuales los pesos son las probabilidades respectivas de tales resultados. Se halla
multiplicando cada resultado posible por su probabilidad y sumando los resultados. Se expresa
mediante la siguiente fórmula:

VARIANZA
La varianza es el promedio de las desviaciones al cuadrado con respecto a la media. La varianza
mide la dispersión de los resultados alrededor de la media y se halla calculando las diferencias
entre cada uno de los resultados y su media, luego tales diferencias se elevan al cuadrado y se
multiplican por sus respectivas probabilidades, y finalmente se suman los resultados.

Ejemplo ilustrativo:
Hallar la esperanza matemática, la varianza y la desviación estándar del número de caras al lanzar
tres monedas al aire.

Solución:
El espacio muestral es S = {CCC, CCS, CSC, SCC, CSS, SCS, SSC, SSS}
La probabilidad de cada punto muestral es de 1/8Se elabora las distribuciones de probabilidad y se
realiza los cálculos respectivos. Estos resultados se presentan en la siguiente tabla:

3.5. DISTRIBUCIONES DE PROBABILIDAD DE VARIABLES ALEATORIAS


DISCRETAS

DISTRIBUCIONES DISCRETAS

INTRODUCCIÓN:
Una distribución de probabilidad es una representación de todos los resultados posibles de algún
experimento y de la probabilidad relacionada con cada uno.

Una distribución de probabilidad es discreta cuando los resultados posibles del experimento son
obtenidos de variables aleatorias discretas, es decir, de variables que sólo puede tomar ciertos
valores, con frecuencia números enteros, y que resultan principalmente del proceso de conteo.
Ejemplos de variables aleatorias discretas son:

 Número de caras al lanzar una moneda


 El resultado del lanzamiento de un dado
 Número de hijos de una familia
 Número de estudiantes de una universidad
Ejemplo ilustrativo:
Sea el experimento aleatorio de lanzar 2 monedas al aire. Determinar la distribución de
probabilidades del número de caras.

Resultados (N° de Probabilida


Caras) d

0 1/4 = 0,25 =
25%
1 2/4 = 0,50 =
50%
2 1/4 = 0,25 =
25%

Solución:
El espacio muestral es S = {CC, CS, SC, SS}
La probabilidad de cada punto muestral es de 1/4, es decir, P(CC) = P(CS) = P(SC) = P(SS) = ¼ La
distribución de probabilidades del número de caras se presenta en la siguiente tabla:

El gráfico de distribuciones de probabilidad en 3D elaborado en Excel se muestra en la siguiente


figura:

INTERPRETACIÓN:
 La probabilidad de obtener 0 caras al lanzar 2 monedas al aire es de 1/4 = 0,25 = 25%
 La probabilidad de obtener una cara al lanzar 2 monedas al aire es de 2/4 = 0,5 = 50%
 La probabilidad de obtener 2 caras al lanzar 2 monedas al aire es de 1/4 = 0,25 = 25%
3.5.1. DISTRIBUCIÓN BINOMIAL

DEFINICIÓN:
Cuando se dispone de una expresión matemática, es factible calcular la probabilidad de ocurrencia
exacta correspondiente a cualquier resultado específico para la variable aleatoria.

La distribución de probabilidad binomial es uno de los modelos matemáticos (expresión


matemática para representar una variable) que se utiliza cuando la variable aleatoria discreta es el
número de éxitos en una muestra compuesta por n observaciones.

PROPIEDADES:
La muestra se compone de un número fijo de observaciones n Cada observación se clasifica en una
de dos categorías, mutuamente excluyentes (los eventos no pueden ocurrir de manera simultánea.

Ejemplo: Una persona no puede ser de ambos sexos) y colectivamente exhaustivos (uno de los
eventos debe ocurrir.

Ejemplo: Al lanzar una moneda, si no ocurre cruz, entonces ocurre cara). A estas categorías se las
denomina éxito y fracaso.

La probabilidad de que una observación se clasifique como éxito, p, es constante de una


observación o otra. De la misma forma, la probabilidad de que una observación se clasifique
como fracaso, 1-p, es constante en todas las observaciones.
La variable aleatoria binomial tiene un rango de 0 a n

ECUACIÓN:

DESVIACIÓN ESTÁNDAR DE LA DISTRIBUCIÓN BINOMIAL


3.5.2 DISTRIBUCIÓN HIPERGEOMÉTRICA

DEFINICIÓN
La distribución binomial es apropiada sólo si la probabilidad de un éxito permanece constante.
Esto ocurre si el muestreo se realiza con reemplazo en una población grande. Sin embrago, si la
población es pequeña y ocurre sin reemplazo, la probabilidad de éxito variará, y la distribución
hipergeométrica es que se utiliza.

FÓRMULA
Se calcula empleando la siguiente fórmula:

DÓNDE:
 C = combinación
 N = tamaño de la población
 r = número de éxitos en la población
 n = tamaño de la muestra
 X = número de éxitos en la muestra

NOTAS:
 Si se selecciona una muestra sin reemplazo de una población grande conocida y contiene
una proporción relativamente grande de la población, de manera que la probabilidad de
éxito varía de una selección a la siguiente, debe utilizarse la distribución hipergeométrica.

 Cuando tamaño de la población (N) es muy grande, la distribución hipergeométrica tiende


aproximarse a la binomial.

Ejemplo ilustrativo
Si se extraen juntas al azar 3 bolas de una urna que contiene 6 bolas rojas y 4 blancas. ¿Cuál es la
probabilidad de que sean extraídas 2 bolas rojas.

Solución:
Los datos son:
N =10; r = 6; n
= 3 y X= 2
Aplicando la
fórmula se
obtiene:
3.5.3. DISTRIBUCIÓN DE POISSON

INTRODUCCIÓN.
Muchos estudios se basan en el conteo de las veces que se presenta un evento dentro de un área de
oportunidad dada. El área de oportunidad es una unidad continua o intervalo de tiempo o espacio
(volumen o área) en donde se puede presentar más de un evento.

Algunos ejemplos serían los defectos en la superficie de un refrigerador, el número fallas de la red
en un día, o el número de pulgas que tiene un perro. Cuando se tiene un área de oportunidad como
éstas, se utiliza la distribución de Poisson para calcular las probabilidades si:

 Le interesa contar las veces que se presenta un evento en particular dentro de un área de
oportunidad determinada. El área de oportunidad se define por tiempo, extensión, área,
volumen, etc.

 La probabilidad de que un evento se presente en un área de oportunidad dada es igual para


todas las áreas de oportunidad.

 El número de eventos que ocurren en un área de oportunidad es independiente del número


de eventos que se presentan en cualquier otra área de oportunidad.

 La probabilidad de que dos o más eventos se presenten en un área de oportunidad tiende a


cero conforme esa área se vuelve menor.

FORMULA:
CONCLUSIÓN

 La regla de la adición establece que la probabilidad de ocurrencia de cualquier evento en


particular es igual a la suma de las probabilidades individuales

 La probabilidad condicional se escribe P (A|B), y se lee «la probabilidad de A dado B».

 La regla de multiplicación establece que la probabilidad de ocurrencia de dos o más


eventos estadísticamente independientes es igual al producto de sus probabilidades
individuales.

 El teorema de Bayes se utiliza para revisar probabilidades previamente calculadas cuando


se posee nueva información.

 Las variables aleatorias discretas unidimensionales En la sección dedicada a la Estadística


Descriptiva hemos estudiado las variables estadísticas, estudiándolas como mediciones
que se efectúan sobre los individuos de la muestra.

 Distribución nominal es uno de los modelos matemáticos (expresión matemática para


representar una variable) que se utiliza cuando la variable aleatoria discreta es el número de
éxitos en una muestra compuesta por n observaciones.

S-ar putea să vă placă și