Sunteți pe pagina 1din 6

Probabilidad y Estadística

Vol3 – V 1.0 Transcripción by groklee

Clase 3
Variable Aleatoria – Unidad 2

Los experimentos aleatorios pueden arrojar como resultado valores numéricos o atributos
cualitativos. Esto es inconveniente cuando calculamos probabilidades porque nos limitamos a
contar con una cantidad de resultados. Pero a veces es necesario pensar algebraicamente los
resultados. Entonces si es necesario otorgarles un valor numérico y para esto definimos la variable
aleatoria: es aquella que otorga un número real a cada elemento del experimento.
S(lanzar una moneda) = { cara / cruz }  X = { 1, 0 }
S(tirar un dado) = { 1, 2, 3, 4, 5, 6 }  Z = { 1, 2, 3, 4, 5, 6 }
Por ejemplo puedo modificarlo diciendo que gano un peso si es par, pierdo un peso si es impar
S(tirar un dado+) = { 1, 2, 3, 4, 5, 6 }  D = { -1, 1, -1, 1, -1, 1 }

Función de Probabilidad: Así llamamos a la que le otorga a cada valor de la variable un número
que llamamos probabilidad.
Ej.: X = { 1, 0 }  Px = { 1/2, 1/2 }

Distribución de probabilidad: Así llamamos al conjunto de pares ordenados { Xi, Px }. Por ejemplo,
con una moneda:
X Px En forma impropia se suele llamar variable aleatoria a lo que en rigor es la función de
V.A. 1 1/2 probabilidad. Al decir Variable Aleatoria nos referimos a ambas cosas.
0 1/2
Distribución
Ejemplo: el experimento consiste en lanzar 2 dados y sumar los puntos que aparecen en la cara
superior. Definir la variable aleatoria.
Dado 1: X = { 1, ... 6 }, Dado 2: Y = { 1, ... 6 }, Z = X + Y

Z P(Z) Los eventos son independientes, el resultado de un dado no repercute en el


2 1/36 resultado del otro dado y entonces la probabilidad multiplicativa se resuelve
3 2/36 como producto de probabilidades simples.
4 3/36 P(Z=2) = [ P(X=1) ∩ P(Y=1) ] = P(X=1) * P(Y=1) = 1/6
5 4/36
6 5/36
Los eventos son mutuamente excluyentes, en consecuencia la unión o
7 6/36
8 5/36 probabilidad aditiva se resuelve directamente como suma de probabilidades y
9 4/36 a la vez cada uno de los términos de la suma son una probabilidad
10 3/36 multiplicativa de sucesos independientes.
11 2/36 P(Z=3) = { [ P(X=1) ∩ P(Y=2) ] ∪ [ P(X=1) ∩ P(Y=2) ] } = 1/6*1/6+1/6*1/6 = 2/36
12 1/36
36/36 La suma de todas las probabilidades es = 1.
Suele graficarse la variable aleatoria. En el caso del ejemplo, el gráfico muestra 0.20

que es simétrica, da valores equidistantes a uno y otro lado del vértice, y además
0.00
hay un solo vértice o máximo. 2 4 6 8 10 12

En realidad la variable ideal es simétrica, tiene un vértice único pero no es un triángulo sino que es
una campana, lo que se llama “Variable aleatoria de Gauss”, que en la gráfica se
utiliza como patrón de comparación para cualquier otra variable. El experimento
aleatorio de Gauss es aquel con el cual se compara cualquier otro experimento y lo
ideal es aproximarnos a la campana de Gauss tanto como sea posible. Campana de Gauss

Y suele graficarse otra variable, a la que llamamos distribución acumulada de probabilidad. En el


ejemplo:
F(Z) = (Ʃ2->12)F(Z)

Z P(Z) ƩF(Z) 1.2


2 1/36 1/36
3 2/36 3/36 1
4 3/36 6/36
0.8
5 4/36 10/36
6 5/36 15/36 0.6
7 6/36 21/36
0.4
8 5/36 26/36
9 4/36 30/36 0.2
10 3/36 33/36
11 2/36 35/36 0
2 3 4 5 6 7 8 9 10 11 12
12 1/36 36/36
36/36
El patrón de comparación también existe y es la ojiva de Gauss. Es muy
abatida (plana) en los tramos extremos y muy empinada (vertical) en el tramo
central. Esa es la distribución ideal de las probabilidades. Y en nuestra
variable ejemplo tenemos demasiado empinamiento en la parte extrema y
cierto abatimiento en la central.

Esperanza matemática de una variable aleatoria: los valores de la variable y sus probabilidades se
combinan entre si. Esos algoritmos genéricamente se llaman “momentos” de la variable. Hay dos
fundamentales. El primero es lo que llamamos Esperanza Matemática. Si la variable tomase un
único valor, ese valor correspondería al número que llamamos promedio o esperanza matemática.
[E(Z)].
E(Z) = (Ʃ(i=1)->n)Zi*Pz
Siguiendo el ejemplo:
Z P(Z) ƩF(Z) Z * P(Z) E(Z) = (Ʃ(i=1)->n)Zi*Pz
2 1/36 1/36 2/36 E(Z) = 252/36
3 2/36 3/36 6/36 E(Z) = 7
4 3/36 6/36 12/36
5 4/36 10/36 20/36
6 5/36 15/36 30/36
7 6/36 21/36 42/36
8 5/36 26/36 40/36
9 4/36 30/36 36/36
10 3/36 33/36 30/36
11 2/36 35/36 22/36
12 1/36 36/36 12/36
36/36 252/36

Si todas las jugadas dieran el mismo resultado, ese resultado único sería 7 puntos, de hecho 7 no
es el único resultado posible, y si le asignamos a todas las jugadas el resultado 7 vamos a cometer
un error. Habría muchos criterios para medir ese error pero hay uno universal que introdujo Gauss
y se lo llama “Error Estándar” o “Coeficiente de Dispersión Sigma” [σ] y se define así:
σ = √( Ʃ((Z-E)2)*P(Z)

Z P(Z) ƩF(Z) Z * P(Z) (Z-E) (Z-E)2 (Z-E)2 * P(Z) De aquí podemos ver:
2 1/36 1/36 2/36 -5 25 25/36 E=7
3 2/36 3/36 6/36 -4 16 32/36 σ = √( Ʃ((Z-E)2)*P(Z)
4 3/36 6/36 12/36 -3 9 27/36
σ = √(210/36)
5 4/36 10/36 20/36 -2 4 16/36
σ = 2,4
6 5/36 15/36 30/36 -1 1 5/36
7 6/36 21/36 42/36 0 0 0
8 5/36 26/36 40/36 1 1 5/36
9 4/36 30/36 36/36 2 4 16/36
10 3/36 33/36 30/36 3 9 27/36
11 2/36 35/36 22/36 4 16 32/36
12 1/36 36/36 12/36 5 25 25/36
36/36 252/36 210/36

Aparte de la magnitud del error hay que considerar la frecuencia con que se comete. Esta variable
de ejemplo se caracteriza por dos aspectos. Esperanza (E) = 7 y Desvío 2,4. Y estos valores se
vinculan entre si:
Se toma el promedio como valor central. El “Factor K”
que multiplica al desvío estándar esta vinculado con la
E–K*σ E+K*σ
probabilidad que corresponde a ese intervalo. Cuando
la variable es simétrica la probabilidad que corresponde
lo hace “como mínimo”.
2
[1 – (4/9)*(1/K )] Desigualdad de Gauss
Por ejemplo, si queremos establecer el intervalo al cual le corresponde como mínimo el 90% de la
probabilidad tenemos que resolver [1 – ((4/9)*(1/K2)] = 0,90  K = 2,11

Entonces, en el ejemplo, Z (+/-) K * σ = 7 (+/-) 2,1 * 2,4 = 2 y 12. Comparándolo con el dato,
tenemos 100% de probabilidad de que ocurra, que es más que aquel 90% “como mínimo” y la
desigualdad se sigue cumpliendo.

Si queremos calcular el desvío en el ejemplo, usando K = 1: E (+/-) 1 * σ = 7 (+/-) 2,4 = 9,4 y 4,6.
Como mínimo tengo de probabilidad: 1 – (4/9) * (1/ 12) = 56%
Al ir variando K, varío el nivel de probabilidad. Para K = 1  56%, para K = 2,11  90%

Si tenemos una muestra que cumple nada mas que una fracción de los datos del experimento
puede suceder que alguno de los datos de todo el universo no estén incluidos en la muestra, pero
si calculamos el promedio y el error estándar de esa muestra, y formamos un intervalo aplicando
la desigualdad de Gauss, sabemos por lo menos que grado de certeza tenemos acerca del que los
valores de la población no escapan a los límites de ese intervalo. Si restamos y sumamos 2,1 veces
el error al promedio, sabemos que por lo menos el 90% de los datos están acotados en ese
intervalo.

En definitiva, con el promedio y el error estándar podemos generalizar los resultados parciales de
una muestra a la totalidad de los resultados de una población, que por supuesto no conocemos y
solo conocemos dicha muestra.

Varianza
Muchas veces el σ lo tomamos en escala cuadrática
σ2 = Σ(Z-E)2 * P(Z)
σ2 = (2,41)2 = 5,81
E(Z) = E(X) + E(Y)

Operaciones con Variables Aleatorias

 Suma/Suma Algebraica: cuando se suman dos o más variables aleatorias, la esperanza


da como resultado la suma de las esperanzas de cada término.

X P(X) X * P(X) (X – 3,50)2 * P(X) EX = ΣX * P(X) = 3,5


1 1/6 1/6 1,04 EY = ΣY * P(Y) = 3,5
2 1/6 2/6 0,75 EZ = EX + EY = 7
3 1/6 3/6 0,041 σ2x = (X – EX)2 * P(X) = 2,91
4 1/6 4/6 0,041 σ2y = (Y – EY)2 * P(Y) = 2,91
5 1/6 5/6 0,75
σ2z = 2,91 + 2,91 = 5,82
6 1/6 6/6 1,04
21/6
Si se suman dos variables aleatorias, la varianza de la suma se obtiene sumando la varianza en
cada una de las variables.

i) Esperanza de la suma: E(X+Y) = EX + EY

Σ(X)Σ(Y)(X+Y)P(XY) = EX + EY
Σ(X)Σ(Y) X P(X)P(Y) + Σ(X)Σ(Y) Y P(X)P(Y)

Σ(X) X P(X) * Σ(Y) P(Y) + Σ(X) P(X) * Σ(Y) Y P(Y)

Sabiendo que: Σ(X) X P(X) = E(X) // Σ(Y) P(Y) = 1 // Σ(X) P(X) = 1 // Σ(Y) Y P(Y) = E(Y)
E(X) * 1 + 1 * E(Y)
[E(X+Y) = E(X) + E(Y)]
Es análogo para la resta E(X-Y) = E(X) – E(Y)

ii) Varianza de la suma: σ2(X+Y) = σ2(X) + σ2(Y)

σ2(X+Y) = Σ(X)Σ(Y) [(X+Y) – (E(X+Y))]2 * P(XY)


Σ(X)Σ(Y) [(X – E(X)) + (Y – E(Y))]2 * P(X) * P(Y)

Σ(X) (X – E(X))2 P(X) * Σ(Y) P(Y) + Σ(X) P(X) * Σ(Y) (Y – E(Y))2 P(Y) + 2 * Σ(X – E(X)) P(X) *
Σ(Y) Y P(Y) * Σ(Y – E(Y)) P(Y) * Σ(X) P(X)

Sabiendo que: Σ(X) (X – E(X))2 P(X) = σ2x // Σ(Y) (Y – E(Y))2 P(Y) = σ2y
Y que: Σ(X) (X – E(X)) P(X) = 0 // Σ(Y) (Y – E(Y)) P(Y) = 0
σ2x * 1 + 1 * σ2y + 0*1*1*0
[σ2(X+Y) = σ2x + σ2y]

 Multiplicación Por Constante: Otra operación común es multiplicar una variable aleatoria
por una constante. [X  KX]. En ese caso los resultados son:
i) E(KX) = K * E(X)
E(KX) = Σ(X) (KX) P(X) Como K es una constante premultiplicativa a la suma
E(KX) = K * Σ(X) X P(X) = K * E(X)
ii) σ2(KX) = K2 * σ2(X)
σ2(KX) = Σ(X) [KX – E(KX)]2 * P(X)
σ2(KX) = Σ(X) [KX – K * E(X)] * P(X)
σ2(KX) = K2 * Σ (X-E(X))2 * P(X) = K2 * σ2
iii) σ(KX) = K * σ(X)
 La tercera operación consiste en sumar una constante a la variable aleatoria. [X  X + A]
i) Esperanza de X + h: E(X+ h) = h + E(X)
E(X+h) = h + E(X)
E(X+h) = Σ(X+h) * P(X)
E(X+h) = Σ(X)P(X) + Σ(h)P(X)
E(X+h) = E(X) + h
ii) Varianza de X + h: σ2(X+h) = σ2x
σ2(X+h) = σ2x
σ2(X+h) = Σ[X + h – E(X+h)]2 * P(X)
σ2(X+h) = Σ[X - E(X)]2 * P(X)
σ2(X+h) = σ2x
iii) σ(X+h) = σx

S-ar putea să vă placă și