Sunteți pe pagina 1din 25

Fascculo

Estadstica y
Probabilidad
Semestre 6

Estadstica y probabilidad

Semestre 6

Estadstica y probabilidad

Tabla de contenido

Pgina

Introduccin

Conceptos previos

Mapa conceptual Fascculo 4

Logros

Probabilidad - distribuciones condicionales y prediccin

Distribuciones condicionales

Prediccin

Prediccin lineal

Prediccin general

Teoremas lmites

11

Ley de grandes nmeros

11

Teorema central del lmite

13

Aplicaciones del teorema central del lmite

15

Convergencia en distribucin y en probabilidad

17

Resumen

18

Bibliografa recomendada

18

Nexo

19

Seguimiento al autoaprendizaje

21

Crditos: 3
Tipo de asignatura: Terico Prctica

Semestre 6

Estadstica y probabilidad

Copyright2008 FUNDICIN UNIVERSITARIA SAN MARTN


Facultad de Universidad Abierta y a Distancia,
Educacin a Travs de Escenarios Mltiples
Bogot, D.C.
Prohibida la reproduccin total o parcial sin autorizacin
por escrito del Presidente de la Fundacin.
La redaccin de este fascculo estuvo a cargo de
JOHN FREDY MORALES
Docente tutor Programa de Ingeniera de Sistemas a Distancia.
Sede Bogot, D.C.
Correccin de estilo
MARLON CARRERO R.
Diseo grfico y diagramacin a cargo de
SANTIAGO BECERRA SENZ
ORLANDO DAZ CRDENAS
Impreso en: GRFICAS SAN MARTN
Calle 61A No. 14-18 - Tels.: 2350298 - 2359825
Bogot, D.C., Junio de 2012

Semestre 6

Estadstica y probabilidad

Introduccin
La probabilidad condicionada es la probabilidad de que ocurra un evento
A, sabiendo que tambin sucede otro evento B. La probabilidad condicional se escribe P(A|B), y se lee la probabilidad de A dado B.
No tiene por qu haber una relacin causal o temporal entre A y B. A puede preceder en el tiempo a B, sucederlo o pueden ocurrir simultneamente. A puede causar B, viceversa o pueden no tener relacin causal. Las
relaciones causales o temporales son nociones que no pertenecen al
mbito de la probabilidad. Pueden desempear un papel o no dependiendo de la interpretacin que se le d a los eventos.
El condicionamiento de probabilidades puede lograrse aplicando el teorema de Bayes.
Adicionalmente se ver cmo utilizar ciertas variables conocidas para predecir otras variables que no se pueden observar en un determinado momento. Por ejemplo, se quiere predecir la cantidad de lluvia que maana
caer en determinada regin, para ello utilizaremos otras variables que se
puedan medir hoy. Se quisiera encontrar el predictor que se aproxime ms
a la variable a predecir, y entre todos los predictores pertenecientes a un
conjunto dado.

Conceptos previos
Toda variable aleatoria est caracterizada por su distribucin de probabilidad, que no es sino el conjunto de valores posibles de la variable aleatoria,
acompaados de sus respectivas probabilidades.
El modo en que se representa la distribucin de probabilidad depende de
que la variable aleatoria en cuestin sea de naturaleza discreta o continua.

Fascculo No. 4
Semestre 6

Estadstica y
probabilidad

Estadstica y probabilidad
Si denotamos por P(xi) la masa de probabilidad en cada punto xi del soporte de la distribucin de probabilidad de una variable aleatoria X; (conjunto de valores posibles de la variable aleatoria X). Y por f(xi) la funcin de
densidad que la representa, cuando sta existe (distribuciones de tipo continuo), la esperanza matemtica de la variable X se define:

si la medida de probabilidad es continua, o:

Si la medida de probabilidad es discreta. En este ltimo caso, xi denota


cada uno de los valores posibles de la variable aleatoria X, en nmero infinito o no.
La mediana m est definida por el punto del soporte valor numrico para el
cual se cumple:

en el caso de una variable aleatoria o distribucin de probabilidad continuas, y:

en el caso de una variable discreta. Esta formulacin de la definicin se


debe a que en distribuciones discretas puede aparecer alguna ambigedad en su clculo.

Estadstica y
probabilidad

Fascculo No. 4
Semestre 6

Estadstica y probabilidad
La moda es el valor ms probable de una distribucin, es decir, el punto XM
del soporte de la distribucin, tal que:

La moda puede no ser nica. No existen condiciones bajo las cuales la


mediana o la moda deban preferirse a la esperanza matemtica como medida representativa de la distribucin, pero hay que considerar tal posibilidad, dependiendo de las caractersticas de la distribucin de probabilidad.
La esperanza matemtica (suma de los valores numricos ponderada por
probabilidades) de las desviaciones entre los valores del soporte de la distribucin y su esperanza matemtica es igual a cero:

Mapa conceptual fascculo 4

Logros

Al finalizar el estudio del presente fascculo, el estudiante estar en capacidad


de:
Establecer las relaciones y diferencias entre las nociones frecuentista y real
de probabilidad.
Aplicar el teorema del lmite central en la resolucin de problemas que impliquen la modelacin mediante una distribucin adecuada.
Fascculo No. 4
Semestre 6

Estadstica y
probabilidad

Estadstica y probabilidad

Probabilidad - distribuciones condicionales y


prediccin
Distribuciones condicionales
Sean X e Y dos variables definidas en el mismo . Qu informacin aporta X respecto de Y? Por ejemplo: si disponemos de un modelo para la distribucin conjunta de la temperatura mxima de hoy con la de maana,
este anlisis nos permitira usar la primera para obtener una prediccin de
la segunda. El instrumento adecuado es el concepto de distribucin condicional.
Caso discreto
Si D(X) es discreta, sea C = {x : P(X = x) > 0}. Para cada x C la funcin
de y: P(Y y|X = x) es una funcin de distribucin, que define la llamada
distribucin condicional de Y dado X = x, la que se denota D(Y |X = x).
Note que para esta definicin slo hace falta que X sea discreta: la Y puede ser cualquiera.
Si adems la conjunta D(X, Y ) es discreta, la distribucin condicional est
dada por la funcin de frecuencia condicional pY |X:

Para cada x C se cumple

Ejemplo: Bernouilli Sean S e T los nmeros de los intentos correspondientes al primer y al segundo xito en un esquema de Bernouilli con probabilidad p. se quiere calcular D(S|T). Sabiendo que P(T = t) = (t 1)p2(1
p)t2. La conjunta es:

Estadstica y
probabilidad

Fascculo No. 4
Semestre 6

Estadstica y probabilidad

Por lo tanto,

de modo que D(S|T = t) es uniforme entre 0 y t1. Intuitivamente: saber


que el segundo xito ocurri en el t-simo intento, no da ninguna informacin sobre cundo ocurri el primero.
Caso continuo
Si X es continua, no se puede repetir exactamente el mismo camino que
para el caso discreto, ya que P(X = x) = 0 para todo x. Supongamos que
D(X, Y) es continua, y sea C = {x : fX(x) > 0}. Para todo x C se define la
densidad condicional de Y dado X = x como

Para cada x C esta es una densidad (como funcin de y) ya que fY


|X(y|x)dy = 1 y f 0; y define entonces una distribucin (la distribucin
condicional de Y dado X = x).
La correspondiente funcin de distribucin es la funcin de distribucin
condicional:

Se encuentra condicionando, no respecto al evento {X = x} que tiene probabilidad nula, sino al {x X x + } donde 0 (o sea, tomando
un intervalito). Entonces la distribucin de Y condicional a este evento es
(definiendo para simplificar la notacin, el intervalo J = [x , x + ]):

Fascculo No. 4
Semestre 6

Estadstica y
probabilidad

Estadstica y probabilidad

Cuando 0, se cumple (al menos si fXY es continua) que

Por lo tanto,

Ejemplo 6.B: Normal Si D(X, Y ) es normal bivariada, veremos que D(Y


|X) es normal. Ms exactamente,

donde X y Y son las medias, 2 X y 2 Y las varianzas, y c la covarianza de X e Y . Lo probaremos para el caso = = 0; de ste sale
fcilmente el caso general es:

Donde

Lo cual se puede verificar que

Estadstica y
probabilidad

Fascculo No. 4
Semestre 6

Estadstica y probabilidad
La media (cuando existe) de D(Y |X = x) se llama media condicional de Y
dado X = x, que para los casos discreto y continuo es, respectivamente

y tiene para cada x C las propiedades de la media.


La varianza correspondiente a D(Y |X = x) es la varianza condicional, que
se indicarn con var(Y |X = x). Anlogamente, la correspondiente mediana
es la mediana condicional, que se escribe med(Y |X = x).
En algunos textos se usa la expresin variable condicional, que es incorrecta, ya que la variable es la misma, y slo cambia la manera de definir
las probabilidades correspondientes a su distribucin.

Prediccin
Un posible problema a resolver puede ser: conociendo la temperatura media de hoy, hacer una prediccin de la de maana. Formalmente, se busca
aproximar a Y con una funcin de X. O sea, se busca una funcin g : R
R tal que Y g(X) sea lo ms pequea posible. Este problema se denomina en general prediccin. Pero eso no implica un orden cronolgico
entre las variables. Por ejemplo, si tengo una serie de observaciones en la
que faltan valores, puede interesarme predecir (rellenar) los valores faltantes en funcin de otros posteriores. Una forma de plantear el problema
es minimizar alguna medida del error. El criterio ms usual es el error medio cuadrtico (e.m.c.):}

Fascculo No. 4
Semestre 6

Estadstica y
probabilidad

Estadstica y probabilidad
Se busca entonces g tal que e(g) sea mnimo. El e.m.c. no es el nico criterio posible. Por ejemplo se podra tomar como medida de error E|Y
g(X))| (error absoluto), o med(|Y g(X)|) (error mediano). Pero el
e.m.c. permite, como se ver, obtener resultados calculables explcitamente, y esto es la base de su popularidad.

Prediccin lineal
Para comenzar con un caso ms sencillo, trataremos el problema en que g
se restringe a la forma g(x) = a + bx. Entonces

y hay que buscar las constantes a y b que minimicen.


Sean X y Y las medias de X e Y , X y Y las desviaciones, y c = cov(X,
Y ).
Desarrollando el cuadrado, e igualando a 0 las derivadas respecto de a y
de b, se obtiene la solucin:

y por lo tanto la g ptima es:

Se define la recta de regresin como {(x, y) : y = g(x), x R}. Pasa por


(X, Y ), y tiene pendiente b. El mnimo e.m.c. es:

Usando el coeficiente de correlacin , la ecuacin de la recta de regresin se puede expresar ms simtricamente como

Estadstica y
probabilidad

Fascculo No. 4
Semestre 6

Estadstica y probabilidad

Como emn > 0, implica nuevamente que || 1, y adems permite una


interpretacin intuitiva de como medida de dependencia lineal. En efecto, notemos que, por definicin, emn es el e.m.c. de la mejor aproximacin
de Y como funcin lineal de X; y que implica que 2 es el e.m.c. correspondiente a la mejor aproximacin de Y con una constante, o sea, con una
funcin lineal de X con pendiente nula. Entonces, 1 2 = emn /2 Y mide
cunto disminuye el e.m.c. cuando se utiliza (linealmente) la X, en vez no
utilizarla. Por lo tanto = 0 (X e Y incorreladas) significa que usar funciones lineales de X para aproximar a Y, es lo mismo que nada. En cambio,
= 1 implica emn = 0 lo cual implica que Y es igual (con probabilidad 1) a
una funcin lineal de X, con pendiente del mismo signo que .
Si en cambio se quiere aproximar a X como funcin lineal de Y, se deduce
intercambiando X e Y, que la correspondiente recta de regresin es:

y por lo tanto ambas rectas pasan por (X, Y ), pero no coinciden, salvo
que = 1.

Prediccin general
Ahora se busca minimizar el e.m.c. sin restricciones sobre g. Convendr
tener en cuenta que si C es un conjunto tal que P(X C) = 1, basta con
definir la g en C (por ejemplo, si X 0, basta con definir g en R+).
Ahora damos la solucin del problema general.
Teorema Sea g(x) = E(Y |X = x) si x C. Entonces esta g minimiza el
e.m.c.
Fascculo No. 4
Semestre 6

Estadstica y
probabilidad

Estadstica y probabilidad
Demostracin: La hacemos para el caso discreto. Notemos que para
cualquier g el e.m.c. es

Para cada x, basta con minimizar la

La constante c que minimiza

es

Ejemplo: La falacia de la regresin Sea X la estatura de un seor elegido


al azar de la poblacin de padres con hijos adultos; e Y la estatura de su
hijo mayor.
Se puede suponer que no hay cambios de una generacin a otra, y por lo
tanto X = Y = y X = Y = . La estatura media de los hijos cuyos
padres tienen estatura x es h(x) = E(Y |X = x). Si se supone que D(X, Y) es
normal bivariada suposicin bastante compatible con los datos existentes entonces esta media est dada por la recta de regresin: h(x) =
+(x). Como h(x) = (1)(x)+x y < 1, se deduce que

De modo que hijos de hombres ms altos que la media, son en promedio ms bajos que sus padres; y los hijos son en promedio ms altos que
sus padres. Esto se podra interpretar como una tendencia de la poblacin
a emparejarse (de aqu la expresin regresin: se regresara hacia la
media). Sin embargo, esto se obtuvo suponiendo justamente que las dos
generaciones tienen la misma distribucin! En consecuencia, este fenmeno no dice nada sobre la evolucin de la poblacin, sino que es una
Estadstica y
probabilidad

10

Fascculo No. 4
Semestre 6

Estadstica y probabilidad
simple consecuencia de que < 1. Esta aparente paradoja se llama la falacia de la regresin.

Teoremas lmites
A continuacin se vern dos resultados muy importantes sobre el comportamiento del promedio (o de la suma) de un gran nmero de variables independientes.

Ley de grandes nmeros


Sea Xi (i = 1, 2, . . .) una sucesin de variables independientes con la misma distribucin, y por lo tanto con la misma media , y sea Xn = Sn/n,
donde Sn =

. El problema que se tratara es: es cierto que


algn sentido?.

Consideremos por ejemplo una sucesin de tiradas de un dado equilibrado. Sea Xi = IAi donde Ai es el evento: en el tiro i-simo sale as. Entonces
= P(Ai) = 1/6; y Xn es la proporcin de ases en los primeros n tiros. Sera
entonces de esperar que Xn se aproxime a 1/6 cuando n es grande. Asimismo, si definimos en vez a Xi como el resultado del tiro i-simo, entonces
= 3.5, y Xn es el promedio de los primeros n resultados, del cual uno
esperara que se aproxime a 3.5 para n grande. Sin embargo, para sucesiones de resultados tales como 4,5,4,5,4,5,. . . , esto no se cumplir en
ninguno de los dos ejemplos, por lo que dicho lmite no puede tomarse en
su sentido habitual. Podra deducirse que al fin y al cabo esa sucesin de
resultados tiene probabilidad nula; pero lo mismo vale para cualquier otra
sucesin. Lo que se necesita es un concepto adecuado de lmite para variables aleatorias.

Fascculo No. 4
Semestre 6

11

Estadstica y
probabilidad

Estadstica y probabilidad
Definicin: La sucesin de variables Zn tiende a la variable Z en probabilidad

si

para

todo

<

>

se

cumple

Demostracin: Usando la desigualdad de Chebychev

que tiende a 0 para n .


Ley dbil de grandes nmeros
Si las Xi son independientes, todas con media y varianza 2 < , entonces
Demostracin: Usando la desigualdad de Chebychev

Que tiende a 0 para n


La existencia de la varianza no es necesaria para la validez del resultado,
sino slo para simplificar la demostracin. En cambio la existencia de EXi
es imprescindible, lo que puede verse en el caso en que las Xi tienen distribucin de Cauchy, para la que la media no existe. Se deduce que D(Xn)
= D(X1); y por lo tanto, Xn no puede tender a una constante.
Un resultado mucho ms profundo, debido a Kolmogorov, es el que sigue:
Ley fuerte de grandes nmeros
Si existe = EXi, entonces

Es decir, que el conjunto de sucesiones para las que Xn no tiende a tiene


probabilidad 0.
Estadstica y
probabilidad

12

Fascculo No. 4
Semestre 6

Estadstica y probabilidad
La ley de grandes nmeros es importante en relacin con el concepto de
probabilidad. En el primer ejemplo con el dado, dicha ley implica que (de
manera informal)

La ley de grandes nmeros y el uso del valor medio


En un juego de azar con banca, la ganancia neta del jugador en cada jugada (lo que recibe de la banca menos lo que apost) es una variable
aleatoria, que llamaremos X. Segn una terminologa tradicional, el juego
es equitativo, favorable o desfavorable segn que EX sea respectivamente
igual, mayor o menor que 0. En un juego en el que el jugador realiza una
apuesta a, y con probabilidad p gana, recibiendo de la banca una suma s,
y con probabilidad 1p pierde su apuesta, es EX = psa. Por ejemplo, en
la ruleta apostando a pleno, es p = 1/37, y para a = 1 es s = 36, y por lo
tanto EX = 1/37, o sea que el juego es desfavorable. La Ley de Grandes Nmeros implica que en un nmero sucientemente grande de jugadas de un juego desfavorable, la ganancia neta del apostador es negativa, y por lo tanto la de la banca es positiva. Lo inverso ocurrira con un juego favorable. Como la banca se enfrenta a numerosos jugadores que
adems suelen jugar repetidamente est en una situacin en la que rige la
Ley de Grandes Nmeros, y por lo tanto, que el juego sea desfavorable
le garantiza a la banca su rentabilidad a largo plazo.

Teorema central del lmite


Como antes, Xi es una sucesin de variables independientes, con la misma
distribucin, todas con media y varianza 2, y

i=1

Xi. Buscaremos aproximar la distribucin de Sn para n grande. Cuando n


, D(Sn) no tiende a nada, cosa que uno puede sospechar por ser
var(Sn) . Una idea es transformar la Sn de manera que su distribucin
Fascculo No. 4
Semestre 6

13

Estadstica y
probabilidad

Estadstica y probabilidad
converja a algo. Si la dividimos por n obtenemos Xn, que como se vio
tiende a , o sea, algo que tiene un solo valor; de modo que dividir por n
resulta demasiado.
Habra que transformar a Sn de forma que su distribucin tendiera a alguna distribucin que no est concentrada en un solo valor. La idea salvadora es transformar a Sn para que queden media y varianza constantes. Sea
Sn la Sn normalizada para que tenga media 0 y varianza 1:

Entonces se puede probar el: teorema central del lmite

Para todo s R, donde es la funcin de distribucin de la N(0, 1).


Este teorema tiene numerosas aplicaciones, en particular en Estadstica y
en Mecnica Estadstica.
El teorema central trata de la convergencia de una sucesin de funciones
de distribucin, a diferencia de la ley de grandes nmeros que trata la convergencia de las variables aleatorias. El concepto adecuado es ste:
La sucesin de funciones de distribucin Fn converge dbilmente a la funcin de distribucin F se escribe Fn F si lmn Fn(x) = F(x) para
todos los x donde F es continua.
Si Zn es una sucesin de variables no necesariamente definidas en el
mismo y Z una variable, tales que FZn FZ, se escribir D(Zn) D(Z).
En este caso se dice que Zn converge a Z en distribucin, y se abrevia

Estadstica y
probabilidad

14

. Como lo nico que interviene de Z es su distribucin,

Fascculo No. 4
Semestre 6

Estadstica y probabilidad
tambin se puede escribir

Este concepto no tiene nada

que ver con la convergencia de las Zn como funciones de R, sino slo


de sus distribuciones. Por ejemplo, sea X una variable que toma los valores 1 con probabilidad 0.5, y sea Zn = (1)nX. Obviamente las Zn no
convergen a nada, pero tienen todas la misma distribucin, igual a la de X,
por lo que trivialmente

Aplicaciones del Teorema central del Lmite


Aproximacin normal a la binomial
Sean Xi = IAi, donde los eventos Ai son independientes y tienen probabilidad p. Entonces = p, 2 = p(1p), y S es binomial: Bi(n, p). Por lo tanto
el Teorema Central del Lmite implica que D(Sn) = Bi(n, p) N(np, np(1
p)) para n grande, o sea que si F es la funcin de distribucin de:
puede mejorarse utilizando la llamada correccin por continuidad que consiste en
agregarle 0.5 a x, o sea

Aproximacin normal a la Poisson


La distribucin Po() puede ser aproximada por la normal para grande.
Sea X Po(). Recordemos que X tiene media y varianza iguales a . Entonces se cumple:

Lo probamos primero cuando toma slo valores enteros. Sean Y1, Y2, . .
. Po(1) independientes. Entonces, se obtiene
Fascculo No. 4
Semestre 6

15

Estadstica y
probabilidad

Estadstica y probabilidad

Las Yi tienen media y varianza iguales a 1. Aplicando el Teorema Central,


se verifica cuando recorre los enteros. Si bien parece obvio que el resultado vale en general, los detalles de la demostracin para cualquiera requieren algn cuidado.
Movimiento browniano
Si se observan al microscopio partculas en suspensin en un lquido, se
ve que realizan incesantes movimientos completamente caticos. El fenmeno descubierto en el siglo pasado por el botnico ingls Robert Brown,
y denominado movimiento browniano fue explicado por Einstein como una
consecuencia de la agitacin de las molculas del lquido.
Damos a continuacin un enfoque muy simple del problema. Consideramos slo el caso unidimensional. Sea la variable Xt la posicin de la partcula en el instante t, suponiendo X0 = 0. Hacemos dos suposiciones:
a. La partcula no tiene inercia.
b. Las condiciones no cambian en el tiempo.
La primera suposicin la representamos postulando que los incrementos
de Xt son independientes, o sea,

La segunda, postulando que

Para calcular D(Xt), aproximamos la situacin mediante un paseo al azar


como en el problema 2.12, suponiendo que la partcula recibe impactos de
las molculas del lquido a intervalos de tiempo , y que con cada impacto

Estadstica y
probabilidad

16

Fascculo No. 4
Semestre 6

Estadstica y probabilidad
se desplaza una distancia < a la derecha o a la izquierda, con probabilidad
1/2 cada una, y que lo que sucede en un impacto es independiente de los
dems.

Convergencia en distribucin y en probabilidad


A continuacin se analizarn algunas propiedades de los dos tipos de
convergencia.
Convergencia de funciones de variables aleatorias
Es de esperar que, por ejemplo, si

, entonces tambin

. Esto se expresa en el siguiente resultado.


Si

y g es una funcin continua, entonces

Tambin es de esperar que, por ejemplo, si

, entonces tambin

.
Esto se verifica a continuacin.
Si

y g es una funcin continua, entonces

Relaciones entre los dos tipos de convergencia


Una relacin muy til entre las convergencias en probabilidad y en distribucin es el siguiente resultado, quien arma que si dos variables estn
prximas, sus distribuciones tambin lo estn.
Proposicin: Sean Fn y Gn las funciones de distribucion de Un y de Vn.
Si

Fascculo No. 4
Semestre 6

17

Estadstica y
probabilidad

Estadstica y probabilidad
El concepto de convergencia en probabilidad es, como era de esperarse,
ms fuerte que el de convergencia en distribucin, como se muestra a continuacin:
Proposicin
Proposicin Si c es una constante,
Por hiptesis, lm FZn(z) = 0 o 1 segn sea z < c o > c. Por lo tanto

En muchas situaciones aparecen combinados ambos tipos de convergencia, particularmente al buscar aproximaciones para las distribuciones de
variables que aparecen en estadstica. La proposicin siguiente, que es
bastante intuitiva, resulta muy til.

La pregunta principal en este fascculo est dada en el sentido de que san


X o Y dos variables definidas en el mismo Rango. Qu informacin aporta
X respecto de Y? La respuesta a esta pregunta la ofrecen las distribuciones
condicionales. Como en toda distribucin encontramos casos discretos
como Bernoulli y casos continuos.
Posteriormente se abord el tema de la prediccin que es el aporte de la
estadstica para poder tomar decisiones generando escenarios a futuro
basndose en la informacin histrica.

CANAVOS C., George. Probabilidad y estadstica para ingenieros. Editorial MCGRAW Hill, octava edicin, 1995.
Estadstica y
probabilidad

18

Fascculo No. 4
Semestre 6

Estadstica y probabilidad
FELLER, W. (1980), Introduccin a la Teora de Probabilidad y sus Aplicaciones, Editorial Limusa.
LARSON, Harold J. Introduccin a la teora de probabilidades e inferencia estadstica. Editorial Limusa Noriega, dcima primera edicin, 1994.
MONTGOMERY, Douglas y Hines, William. Probabilidad y estadstica aplicadas a la ingeniera. Editorial McGraw Hill, cuarta edicin, 1993.
WALPOLE, Ronald E. Probabilidad y estadstica para ingenieros. Editorial
Prentice Hall Hispanoamericana S.A., sexta edicin, 1999.

El siguiente fascculo inicia los temas propios de la estadstica, pues hasta


ahora se han abordado conceptos asociados a la probabilidad. Se cubrirn temas asociados a la descripcin de una muestra, teniendo en cuenta los mtodos de estimacin y los modelos de medicin con error.

Fascculo No. 4
Semestre 6

19

Estadstica y
probabilidad

Estadstica y probabilidad

Estadstica y
probabilidad

20

Fascculo No. 4
Semestre 6

Estadstica y probabilidad

Seguimientoal autoaprendizaje
Estadstica y probabilidad - Fascculo No. 4
Nombre_______________________________________________________
Apellidos ________________________________ Fecha: _________________
Ciudad___________________________________Semestre: _______________
1. Probar: X e Y son independientes si y slo si D(Y |X) = D(Y ).
2. La distribucin conjunta de X e Y est dada por las siguientes probabilidades:

Calcular E(Y |X = x) y var(Y |X = x) para cada x


3. Un nombre est presente en una lista de n nombres con probabilidad p. Si
est, su posicin en la lista est distribuida uniformemente. Un programa de
computador busca secuencialmente en la lista. Calcule la media de la cantidad
de nombres examinados antes de que el programa se detenga.
4. Se arroja un dado repetidamente; X es el nmero del tiro en el que sale el primer as; Y es la cantidad de dos que salen antes del primer as. Probar que
D(Y |X) es binomial. Obtener de ah E(Y |X) y EY .
5. Sea Xt la cantidad de sucesos hasta el instante t en un proceso de Poisson
con intensidad c. Probar que

Fascculo No. 4
Semestre 6

21

Estadstica y
probabilidad

S-ar putea să vă placă și