Sunteți pe pagina 1din 67

UNIVERSIDAD DE ORIENTE

NCLEO DE ANZOTEGUI
ESCUELA DE INGENIERA Y CS. APLICADAS
DEPARTAMENTO DE ELECTRICIDAD
ESTADSTICA
SECCION #20

DISTRIBUCIONE
S DE
FRECUENCIAS
Y
PROBABILIDAD
ES
Profesor:

Hernn, Rojas

Estudiante:
Junior, Torres
20.764.386

Julio, 2014

INTRODUCCION
En estadstica, se denomina distribucin de frecuencias a la agrupacin de datos
en categoras mutuamente excluyentes que indican el nmero de observaciones en cada
categora. Esto proporciona un valor aadido a la agrupacin de datos. La distribucin
de frecuencias presenta las observaciones clasificadas de modo que se pueda ver el
nmero existente en cada clase. La tabla de frecuencias ayuda a agrupar cualquier tipo
de dato numrico. En principio, en la tabla de frecuencias se detalla cada uno de los
valores diferentes en el conjunto de datos junto con el nmero de veces que aparece, es
decir, su frecuencia absoluta.
Una distribucin de probabilidad indica toda la gama de valores que pueden
representarse como resultado de un experimento. Una distribucin de probabilidad es
similar al distribucin de frecuencias relativas .Si embargo, en vez de describir el
pasado, describe la probabilidad que un evento se realice en el futuro, constituye una
herramienta fundamental para la prospectiva, puesto que se puede disear un escenario
de acontecimientos futuros considerando las tendencias actuales de diversos fenmenos
naturales.

MARCO TEORICO
1) DISTRIBUCION DE FRECUENCIA:

a) Variables Discretas y Continuas


Una variable continua es aquella que se presenta cuando el fenmeno que se
mide puede tomar valores cuantitativamente distintos, tiene la propiedad de que entre 2
valores observables (potencialmente), hay otro valor observable (potencialmente). Una
variable continua toma valores a lo largo de un continuo, esto es, en todo un intervalo de
valores. Longitudes y pesos son ejemplos de variables continuas. La estatura de una
persona, pude ser 1,70 mts. 1,75 mts., pero en potencia al menos podra tomar
cualquier valor intermedio como 1,73 mts. Por ejemplo. Tambin la edad ya que esta
variable puede asumir valores continuos: 1, 2, 3,20, 21,60,61
Un atributo esencial de una variable continua es que, a diferencia de lo que
ocurre con una variable discreta, nunca se la puede medir exactamente. Con una
variable continua debe haber inevitablemente un error de medida.
Un importante principio sobre variables continuas es que siempre se registran en
forma discreta, quedando la magnitud de la distancia entre valores registrables
adyacentes determinada por la precisin de la medicin.
La distribucin de los datos en categoras que ha demostrado ser til al
organizar los procedimientos estadsticos, es la distincin entre variables discretas y
variables continuas. Una variable discreta es sencillamente una variable para la que se
dan de modo inherente separaciones entre valores observables sucesivos. Establecen
categoras en trminos no cuantitativos entre distintos individuos o elementos. Por
ejemplo, un recuento del nmero de colonias de un cultivo en agar es una variable
discreta. Mientras que cuentas de 3 y 4 son potencialmente observables, no lo es una de

3,5 o tambin cuando se clasifica a las personas en clases sociales: alta, media, baja. O
cuando se califica un servicio de un hospital: excelente, bueno, regular, malo.

b) Poblacin y Muestra
Poblacin: Conjunto de individuos o elementos que le podemos observar, medir
una caracterstica o atributo que puedan ser objeto del estudio estadstico. Un censo, por
ejemplo, es el recuento de todos los elementos de una poblacin
Una poblacin est determinada por sus caractersticas definitorias. Por lo tanto,
el conjunto de elementos que posea esta caracterstica se denomina poblacin o
universo. Poblacin es la totalidad del fenmeno a estudiar, donde las unidades de
poblacin poseen una caracterstica comn, la que se estudia y da origen a los datos de
la investigacin.
Otros ejemplos de poblacin:
El conjunto formado por todos los estudiantes universitarios en Venezuela.
El conjunto de todos los estudiantes de una Universidad.
El conjunto de personas fumadoras de una regin.
Son caractersticas medibles u observables de cada elemento por ejemplo, su
estatura, su peso, edad, sexo, etc.
Supongamos que nos interesa conocer el peso promedio de la poblacin formada
por los estudiantes de una universidad. Si la universidad tiene 5376 alumnos, bastara
pesar cada estudiante, sumar los 5376 pesajes y dividirlo por 5376. Pero este proceso
puede presenta dificultades dentro de las que podemos mencionar:
Localizar y pesar con precisin cada estudiante:
Escribir todos los datos sin equivocaciones en una lista:
Efectuar los clculos.
Las poblaciones pueden ser finitas e infinitas. Las dificultades son mayores si en
nmero de elementos de la poblacin es infinito, si los elementos se destruyen, si sufren

daos al ser medidos o estn muy dispersos, si el costo para realizar el trabajo es muy
costoso.
Es de fundamental importancia comenzar el estudio definiendo la poblacin a
estudiar.
Las poblaciones suelen ser muy numerosas, por lo que es difcil estudiar a todos
sus miembros; adems de que esto no es posible, no es necesario. Es como si se quisiera
estudiar la composicin qumica del agua de un ro y para ello se intentar analizar toda
el agua que corre por su cauce, cuando solamente se puede tomar unas muestras para
realizar ese estudio y llegar a conclusiones generalizables con respecto a la composicin
qumica del agua a todo el ro.

Muestra: Es cuando se seleccionan algunos elementos con la intencin de


averiguar algo sobre una poblacin determinada, se basa en medir solo una parte de la
poblacin. Cuando no es posible medir cada uno de los individuos de una poblacin, se
toma una muestra representativa de la misma y se toma el peso medio en la muestra
como una aproximacin del verdadero valor del peso medio de la poblacin.. Por
supuesto, se espera a travs del estudio que lo que se averige en la muestra sea cierto
para la poblacin en su conjunto.
El tamao de la poblacin es la cantidad de elementos de esta y el tamao de la
muestra es la cantidad de elementos de la muestra.
Los datos obtenidos de una poblacin pueden contener toda la informacin que
se desee de ella. De lo que se trata es de extraerle esa informacin a la muestra, es decir
a los datos mustrales sacarle toda la informacin de la poblacin.
La muestra debe obtener toda la informacin deseada para tener la posibilidad de
extraerla, esto slo se puede lograr con una buena seleccin de la muestra y un trabajo
muy cuidadosos y de alta calidad en la recogida de los datos.
Es bueno sealar que en un momento una poblacin puede ser muestra en una
investigacin y una muestra puede ser poblacin, esto esta dado por el objetivo del
investigacin, por ejemplo en el caso de determinar la estatura media de los estudiantes
universitarios en Venezuela una muestra poda ser escoger algunas universidades del
pas y realizar el trabajo, si por el contrario se quiere saber la estatura promedio de los
estudiantes de una universidad en especifico en Venezuela, entonces el conjunto
formado por todos los estudiantes de esta universidad sera la poblacin y la muestra
estara dada por los grupos, carreras o aos seleccionado para realzar el experimento.
Mtodo de seleccin de la muestra: Un procedimiento de extraer una muestra
aleatoria de una poblacin finita es el de enumerar todos los elementos que conforman
la poblacin, escribir esos nmeros en bolas o papelitos echarlos en un bombo o bolsa
mezclarlos bien removindolos y sacar uno a uno tantos como lo indique el tamao de
la muestra. En este caso los elementos de la muestra lo constituirn los elementos de la
poblacin cuyos nmeros coincidan con los extrados de la bolsa o bombo.

Otro procedimiento para obtener una muestra de una poblacin ya sea el


muestreo con remplazo o sin reemplazo es mediante la utilizacin de la tabla de
nmeros aleatorios pero solamente para poblaciones finitas, la utilizacin de estas tablas
puede realizarse de diferentes modos pero en el presente trabajo solo expondremos el
que consideramos mas eficiente ya que no se necesita de la bsqueda de una gran
cantidad innecesaria de nmeros aleatorios en la tabla, el cual ser ejemplificado.

c) Varianza y Media ( Datos Agrupados)


En teora de probabilidad y estadstica, la varianza es una medida de la
dispersin de una variable aleatoria respecto a su esperanza
. Se define como la
esperanza de la transformacin

: esto es,

Est relacionada con la desviacin estndar o desviacin tpica, que se suele


denotar por la letra griega (sigma) y que es la raz cuadrada de la varianza,
o bien
Es el estadstico de dispersin que mide el grado de variabilidad que sintetiza el
grado de homogeneidad o heterogeneidad de las diferencias individuales entre los casos
de una muestra (o de varias muestras) respecto de una o varias variables numricas
continuas o cuantitativas.
En teora de probabilidad y estadstica la varianza es un estimador de la
divergencia de una variable aleatoria x de su valor esperado E[x]. Tambin se utilizan la
desviacin estndar, la raz de la varianza.
Distinguimos dos smbolos para identificar la varianza: S 2 para datos mustrales,
y 2 para datos poblacionales. Note que la frmula para la varianza muestral presenta en
su denominador al tamao de la muestra menos uno, tendencia adoptada por los
estadsticos para denotar una varianza ms conservadora.
Al igual que ocurre con la desviacin media, podemos definir las frmulas para datos
agrupados en tablas tipo A y tipo B. Para las tablas tipo A tenemos:

Una advertencia en el uso de esta medida, es que al elevar las distancias al cuadrado,
automticamente se elevan las unidades. Por ejemplo, si unidad trabajada en los datos es
centmetros, la varianza da como resultados centmetros al cuadrado.

Varianza Muestral
Dentro de la estadstica descriptiva, la varianza muestral se utiliza como medida
de dispersin, cuya definicin es:

Operando la ecuacin la varianza muestral se puede expresar como:

Tambin se expresa como la diferencia entre el momento de orden 2 y el


cuadrado del valor esperado:

Otra medida de dispersin similar, pero con la propiedad de insesgadez, es la


cuasi-varianza muestral:

Operando la ecuacin la cuasi varianza muestral se puede expresar como:

Mientras que la desviacin estndar se puede interpretar como el promedio de la


distancia de cada punto respecto del promedio y est medida en las mismas unidades
que la variable, la varianza est medida en "unidades al cuadrado".

Propiedades de Varianza
Algunas propiedades de la varianza son:
, propiedad que permite que la definicin de desviacin tpica sea
consistente.
Siendo a y b constantes cualesquiera. De esta ltima
propiedad es fcil ver que la varianza de una constante es cero. i.e.
, que se conoce como frmula computacional
para el clculo de la varianza.

Media
En matemticas y estadstica una media o promedio es una medida de tendencia
central que resulta al efectuar una serie determinada de operaciones con un conjunto de
nmeros y que, en determinadas condiciones, puede representar por s solo a todo el
conjunto. Existen distintos tipos de medias, tales como la media geomtrica, la media
ponderada y la media armnica aunque en el lenguaje comn, el trmino se refiere
generalmente a la media aritmtica.

En realidad hay muchas clases de promedios y sta se la llama media aritmtica


para denotar la suma de un grupo de observaciones dividida por su nmero.

Clculo de la media aritmtica


La media aritmtica de un conjunto de datos se obtiene:
1) Dividiendo la suma de los datos por el nmero total de ellos.
2) Si los datos vienen en una tabla con sus frecuencias absolutas fi, se multiplica
cada dato xi por su frecuencia y se suman los resultados obtenidos. Este resultado se
divide por el nmero total de datos N.
x = x 1 f 1 + x 2 f 2 + x 3 f 3 + ... + x n f n N = i = 1 n ( x i f i ) N

Mediana
En Estadstica, una mediana es el valor de la variable que deja el mismo nmero
de datos antes y despus que l, una vez ordenados estos. De acuerdo con esta
definicin el conjunto de datos menores o iguales que la mediana representarn el 50%
de los datos, y los que sean mayores que la mediana representarn el otro 50% del total
de datos de la muestra.
Existen 2 estrategias para calcular la mediana: Considerando los datos tal cual,
sin agruparlos, o bien cuando los tenemos agrupados en intervalos de clase. Veamos
cada una de ellas.

Datos sin agrupar:


Considerando
los datos de una muestra ordenada en orden
creciente y designando la mediana como Me, distinguimos dos casos:
a) Si n es impar, la mediana es el valor que ocupa la posicin
una vez que
los datos han sido ordenados (en orden creciente o decreciente), porque ste es el valor
central. Es decir:

Por ejemplo, si tenemos 5 datos, que ordenados son: x1 = 3, x2 = 6, x3 = 7, x4 = 8,


x5 = 9 => El valor central es el tercero:
debajo (x1, x2) y otros dos por encima de l (x4, x5).

. Este valor deja dos datos por

b) Si n es par, la mediana es la media aritmtica de las dos observaciones


centrales. Cuando n es par, los dos datos que estn en el centro de la muestra ocupan las
posiciones

. Es decir:

Por ejemplo, si tenemos 6 datos, que ordenados son: x1 = 3, x2 = 6, x3 = 7, x4 = 8,


x5 = 9, x6 = 10 => Hay dos valores que estn por debajo del
que quedan por encima del siguiente dato
la
mediana
como
la
media

aritmtica

Datos agrupados:

y otros dos

. Por tanto, cabe considerar


de
estos
dos
datos:

Al tratar con datos agrupados, si


coincide con el valor de una frecuencia
acumulada, el valor de la mediana coincidir con la abscisa correspondiente. Si no
coincide con el valor de ninguna abscisa, se calcula a travs de semejanza de tringulos
en el histograma o polgono de frecuencias acumuladas, utilizando la siguiente
equivalencia:

Dnde Ni y Ni 1 son las frecuencias absolutas tales que


, ai 1
y ai son los extremos, inferior y superior, del intervalo donde se alcanza la mediana y Me
= ai 1 es la abscisa a calcular, la moda. Se observa que ai ai 1 es la amplitud de los
intervalos seleccionados para el diagrama.

d) Histograma de Frecuencia
En estadstica, un histograma es una representacin grfica de una variable en
forma de barras, donde la superficie de cada barra es proporcional a la frecuencia de los
valores representados. En el eje vertical se representan las frecuencias, y en el eje
horizontal los valores de las variables, normalmente sealando las marcas de clase, es
decir, la mitad del intervalo en el que estn agrupados los datos.
Se utiliza cuando se estudia una variable continua, como franjas de edades o
altura de la muestra, y, por comodidad, sus valores se agrupan en clases, es decir,
valores continuos. Los histogramas son ms frecuentes en ciencias sociales, humanas y
econmicas que en ciencias naturales y exactas. Y permite la comparacin de los
resultados de un proceso.

Tipos de Histogramas
Diagramas de barras simples: Representa la frecuencia simple (absoluta o
relativa) mediante la altura de la barra la cual es proporcional a la frecuencia simple de
la categora que representa.
Diagramas de barras compuesta: Se usa para representar la informacin de
una tabla de doble entrada o sea a partir de dos variables, las cuales se representan as;
la altura de la barra representa la frecuencia simple de las modalidades o categoras de
la variable y esta altura es proporcional a la frecuencia simple de cada modalidad.
Diagramas de barras agrupadas: Se usa para representar la informacin de
una tabla de doble entrada o sea a partir de dos variables, el cual es representado
mediante un conjunto de barras como se clasifican respecto a las diferentes
modalidades.

Polgono de frecuencias: Es un grfico de lneas que se usa para presentar las


frecuencias absolutas de los valores de una distribucin en el cual la altura del punto
asociado a un valor de las variables es proporcional a la frecuencia de dicho valor.
Ojiva porcentual: Es un grfico acumulativo, el cual es muy til cuando se
quiere representar el rango porcentual de cada valor en una distribucin de frecuencias.
En los grficos las barras se encuentran juntas y en la tabla los nmeros poseen
en el primer miembro un corchete y en el segundo un parntesis, por ejemplo: (10-20]
Se agrupan los datos en clases, y se cuenta cuntas observaciones (frecuencia
absoluta) hay en cada una de ellas. En algunas variables (variables cualitativas) las
clases estn definidas de modo natural, p.e sexo con dos clases: mujer, varn o grupo
sanguneo con cuatro: A, B, AB, O. En las variables cuantitativas, las clases hay que
definirlas explcitamente (intervalos de clase).

GRAFICAS

Se
representan
los intervalos
de clase en el
eje de
abscisas (eje
horizontal) y
las
frecuencias,
absolutas o
relativas, en
el de
ordenadas
(eje vertical).

A veces es ms til representar las frecuencias acumuladas.

O representar
simultneamen
te los
histogramas de
una variable en
dos situaciones
distintas.

Otra forma
muy
frecuente,
de
representar
dos
histograma
s de la
misma
variable en
dos
situaciones
distintas.

Construccin de un Histograma
Paso 1: Determinar el rango de los datos. Rango es igual al dato mayor menos el
dato menor.
Paso 2: Obtener el nmeros de clases, existen varios criterios para determinar el
nmero de clases (o barras) -por ejemplo la regla de Sturgess-. Sin embargo ninguno de
ellos es exacto. Algunos autores recomiendan de cinco a quince clases, dependiendo de
cmo estn los datos y cuntos sean. Un criterio usado frecuentemente es que el nmero
de clases debe ser aproximadamente a la raz cuadrada del nmero de datos. Por
ejemplo, la raz cuadrada de 30 (nmero de artculos) es mayor que cinco, por lo que se
seleccionan seis clases.
Paso 3: Establecer la longitud de clase: es igual al rango entre el nmero de
clases.
Paso 4: Construir los intervalos de clases: Los intervalos resultan de dividir el
rango de los datos en relacin al resultado del PASO 2 en intervalos iguales.
Paso 5: Graficar el histograma: En caso de que las clases sean todas de la misma
amplitud, se hace un grfico de barras, las bases de las barras son los intervalos de

clases y altura son la frecuencia de las clases. Si se unen los puntos medios de la base
superior de los rectngulos se obtiene el polgono de frecuencias.

e) Polgono de Frecuencia
Un polgono de frecuencia es un grfico que se realiza a travs de la unin de los
puntos ms altos de las columnas en un histograma de frecuencia (que utiliza columnas
verticales para mostrar las frecuencias). Los polgonos de frecuencias para datos
agrupados, por su parte, se construyen a partir de la marca de clase que coincide con el
punto medio de cada columna del histograma de frecuencias acumuladas, que permite
diagramar su correspondiente polgono.
Por ejemplo: un polgono de frecuencia permite reflejar las temperaturas
mximas promedio de un pas en un perodo de tiempo. En el eje X (horizontal), pueden
sealarse los meses del ao (enero, febrero, marzo, abril, etc). En el eje Y (vertical), se
indican las temperaturas mximas promedio de cada mes (24,25,21). El polgono
de frecuencia se crea al unir con segmento, todas las temperaturas mximas promedio.
Los polgonos de frecuencia se suelen utilizar cuando se desea mostrar ms de
una distribucin o la clasificacin cruzada de una variable cuantitativa continua con una
cualitativa o cuantitativa discreta en un mismo grfico. El punto con mayor altura de un
polgono de un polgono de frecuencia representa la mayor frecuencia mientras que el
rea bajo la curva incluye la totalidad de los datos existentes. Cabe recordar que la
frecuencia es la repeticin menor o mayor de un suceso, o la cantidad de veces que un
proceso peridico se repite por unidad de tiempo.

Caractersticas de los polgonos de frecuencias:


No muestran frecuencias acumuladas.
Se prefiere para el tratamiento de datos cuantitativos.
El punto con mayor altura representa la mayor frecuencia.
Suelen utilizarse para representar tablas tipo B.
El rea bajo la curva representa el 100% de los datos. El polgono de frecuencia
esta diseado para mantener la misma rea de las columnas. Analicemos una
porcin de nuestro grfico para probar esta afirmacin:
Observe que cada lnea corta una porcin de la columna, pero a su vez, agrega
una porcin adicional. Ambas porciones son iguales (triangulo rectngulos
iguales), manteniendo el rea global en el grfico.

2) DISTRIBUCION DE PROBABILIDAD (Conceptos y Ejercicios)


Sea un experimento y S un espacio muestral asociado con. Con cada evento A
asociamos un nmero real, designado con P(A) y llamado probabilidad de A, el cual
satisface las siguientes propiedades:
1)
2)
3)
4)

P(
I=1

0P(A)1
P(s)=1
Si A y B son eventos que se excluyen mutuamente, P( AB)= P(A) + P(B)
Si A1, A2,,An, son eventos que se excluyen mutuamente de par en par
entonces:

Ai)= P(A1)+P(A2)+.+ P(An)+...

Observemos que de la propiedad 3 se deduce de inmediato que para cualquier n


finita

n
n
P ( Ai)= P(Ai)
i=1
i=1
La propiedad 4 no se sigue; sin embargo, cuando consideramos el espacio
muestral idealizado, esta condicin ser necesaria y por tanto, se incluye aqu.
La eleccin de estas propiedades de la probabilidad est obviamente motivada
por las caractersticas correspondientes de la frecuencia relativa. La propiedad antes
mencionada como regularidad estadstica, ms tarde se ligara con esta definicin de
probabilidad. Por el momento solo demostraremos que los valores de P(A) y fA estn
prximos uno al otro (en cierto sentido), si fA se basa en un gran nmero de
repeticiones. Este hecho es el que justifica el empleo de P(A) para medir la probabilidad
de que A ocurra.
Por el momento no sabemos como calcular P(A). Solo hemos anotado algunas
propiedades generales que posee P(A).
La probabilidad mide la frecuencia con la que se obtiene un resultado (o
conjunto de resultados) al llevar a cabo un experimento aleatorio, del que se conocen
todos los resultados posibles, bajo condiciones suficientemente estables. La teora de la
probabilidad se usa extensamente en reas como la estadstica, la fsica, la matemtica,
la ciencia y la filosofa para sacar conclusiones sobre la probabilidad de sucesos
potenciales y la mecnica subyacente de sistemas complejos.
El estudio cientfico de la probabilidad es un desarrollo moderno. Los juegos de
azar muestran que ha habido un inters en cuantificar las ideas de la probabilidad
durante milenios, pero las descripciones matemticas exactas de utilidad en estos
problemas slo surgieron mucho despus.
Segn Richard Jeffrey, "Antes de la mitad del siglo XVII, el trmino 'probable'
(en latn probable) significaba a probable, y se aplicaba en ese sentido, unvocamente, a
la opinin y a la accin. Una accin u opinin probable era una que las personas
sensatas emprenderan o mantendran, en las circunstancias."[]
Aparte de algunas consideraciones elementales hechas por Girolamo Cardano en
el siglo XVI, la doctrina de las probabilidades data de la correspondencia de Pierre de
Fermat y Blaise Pascal (1654). Christian Huygens (1657) le dio el tratamiento cientfico
conocido ms temprano al concepto. Ars Conjectandi (pstumo, 1713) de Jakob
Bernoulli y Doctrine of Chances (1718) de Abraham de Moivre trataron el tema como
una rama de las matemticas. Vase El surgimiento de la probabilidad (The Emergence
of Probability) de Ian Hacking para una historia de los inicios del desarrollo del propio
concepto de probabilidad matemtica.
La teora de errores puede trazarse atrs en el tiempo hasta Opera Miscellanea
(pstumo, 1722) de Roger Cotes, pero una memoria preparada por Thomas Simpson en
1755 (impresa en 1756) aplic por primera vez la teora para la discusin de errores de
observacin. La reimpresin (1757) de esta memoria expone los axiomas de que los
errores positivos y negativos son igualmente probables, y que hay ciertos lmites

asignables dentro de los cuales se supone que caen todos los errores; se discuten los
errores continuos y se da una curva de la probabilidad.
Pierre-Simon Laplace (1774) hizo el primer intento para deducir una regla para
la combinacin de observaciones a partir de los principios de la teora de las
probabilidades. Represent la ley de la probabilidad de error con una curva y = (x),
siendo x cualquier error e y su probabilidad, y expuso tres propiedades de esta curva:
1. Es simtrica al eje y;
2. El eje x es una asntota, siendo la probabilidad del error

igual a 0;

3. La superficie cerrada es 1, haciendo cierta la existencia de un error.


Dedujo una frmula para la media de tres observaciones. Tambin obtuvo (1781)
una frmula para la ley de facilidad de error (un trmino debido a Lagrange, 1774), pero
una que llevaba a ecuaciones inmanejables. Daniel Bernoulli (1778) introdujo el
principio del mximo producto de las probabilidades de un sistema de errores
concurrentes.
El mtodo de mnimos cuadrados se debe a Adrien-Marie Legendre (1805), que
lo introdujo en su Nouvelles mthodes pour la dtermination des orbites des comtes
(Nuevos mtodos para la determinacin de las rbitas de los cometas). Ignorando la
contribucin de Legendre, un escritor irlands estadounidense, Robert Adrain, editor de
"The Analyst" (1808), dedujo por primera vez la ley de facilidad de error.

Siendo c y h constantes que dependen de la precisin de la observacin. Expuso dos


demostraciones, siendo la segunda esencialmente la misma de John Herschel (1850).
Gauss expuso la primera demostracin que parece que se conoci en Europa (la tercera
despus de la de Adrain) en 1809. Demostraciones adicionales se expusieron por
Laplace (1810, 1812), Gauss (1823), James Ivory (1825, 1826), Hagen (1837), Friedrich
Bessel (1838), W. F. Donkin (1844, 1856) y Morgan Crofton (1870). Otros personajes
que contribuyeron fueron Ellis (1844), De Morgan (1864), Glaisher (1872) y Giovanni
Schiaparelli (1875). La frmula de Peters (1856) para r, el error probable de una nica
observacin, es bien conocida.
En el siglo XIX, los autores de la teora general incluan a Laplace, Sylvestre
Lacroix (1816), Littrow (1833), Adolphe Quetelet (1853), Richard Dedekind (1860),
Helmert (1872), Hermann Laurent (1873), Liagre, Didion, y Karl Pearson. Augustus De
Morgan y George Boole mejoraron la exposicin de la teora.
En 1930 Andri Kolmogorov desarroll la base axiomtica de la probabilidad utilizando
teora de la medida.
En la parte geomtrica (vase geometra integral) los colaboradores de The
Educational Times fueron influyentes (Miller, Crofton, McColl, Wolstenholme, Watson
y Artemas Martin).

Teora de Probabilidad
La probabilidad constituye un importante parmetro en la determinacin de las
diversas causalidades obtenidas tras una serie de eventos esperados dentro de un rango
estadstico.
Existen diversas formas como mtodo abstracto, como la teora Dempster-Shafer
y la teora de la relatividad numrica, esta ltima con un alto grado de aceptacin si se
toma en cuenta que disminuye considerablemente las posibilidades hasta un nivel
mnimo ya que somete a todas las antiguas reglas a una simple ley de relatividad. As
mismo es la parte de ley.

Aplicaciones
Dos aplicaciones principales de la teora de la probabilidad en el da a da son en
el anlisis de riesgo y en el comercio de los mercados de materias primas. Los gobiernos
normalmente aplican mtodos probabilsticos en regulacin ambiental donde se les
llama "anlisis de vas de dispersin", y a menudo miden el bienestar usando mtodos
que son estocsticos por naturaleza, y escogen qu proyectos emprender basndose en
anlisis estadsticos de su probable efecto en la poblacin como un conjunto. No es
correcto decir que la estadstica est incluida en el propio modelado, ya que tpicamente
los anlisis de riesgo son para una nica vez y por lo tanto requieren ms modelos de
probabilidad fundamentales, por ej. "la probabilidad de otro 11-S". Una ley de nmeros
pequeos tiende a aplicarse a todas aquellas elecciones y percepciones del efecto de
estas elecciones, lo que hace de las medidas probabilsticas un tema poltico.
Un buen ejemplo es el efecto de la probabilidad percibida de cualquier conflicto
generalizado sobre los precios del petrleo en Oriente Medio - que producen un efecto
domin en la economa en conjunto. Un clculo por un mercado de materias primas en
que la guerra es ms probable en contra de menos probable probablemente enva los
precios hacia arriba o hacia abajo e indica a otros comerciantes esa opinin. Por
consiguiente, las probabilidades no se calculan independientemente y tampoco son
necesariamente muy racionales. La teora de las finanzas conductuales surgi para

describir el efecto de este pensamiento de grupo en el precio, en la poltica, y en la paz y


en los conflictos.
Se puede decir razonablemente que el descubrimiento de mtodos rigurosos para
calcular y combinar los clculos de probabilidad ha tenido un profundo efecto en la
sociedad moderna. Por consiguiente, puede ser de alguna importancia para la mayora
de los ciudadanos entender cmo se calculan los pronsticos y las probabilidades, y
cmo contribuyen a la reputacin y a las decisiones, especialmente en una democracia.
Otra aplicacin significativa de la teora de la probabilidad en el da a da es en
la fiabilidad. Muchos bienes de consumo, como los automviles y la electrnica de
consumo, utilizan la teora de la fiabilidad en el diseo del producto para reducir la
probabilidad de avera. La probabilidad de avera tambin est estrechamente
relacionada con la garanta del producto.
Se puede decir que no existe una cosa llamada probabilidad. Tambin se puede
decir que la probabilidad es la medida de nuestro grado de incertidumbre, o esto es, el
grado de nuestra ignorancia dada una situacin. Por consiguiente, puede haber una
probabilidad de 1 entre 52 de que la primera carta en una baraja de cartas es la J de
diamantes. Sin embargo, si uno mira la primera carta y la reemplaza, entonces la
probabilidad es o bien 100% o 0%, y la eleccin correcta puede ser hecha con precisin
por el que ve la carta. La fsica moderna proporciona ejemplos importantes de
situaciones determinanticas donde slo la descripcin probabilstica es factible debido a
informacin incompleta y la complejidad de un sistema as como ejemplos de
fenmenos realmente aleatorios.
En un universo determinista, basado en los conceptos newtonianos, no hay
probabilidad si se conocen todas las condiciones. En el caso de una ruleta, si la fuerza
de la mano y el periodo de esta fuerza es conocida, entonces el nmero donde la bola
parar ser seguro. Naturalmente, esto tambin supone el conocimiento de la inercia y la
friccin de la ruleta, el peso, lisura y redondez de la bola, las variaciones en la velocidad
de la mano durante el movimiento y as sucesivamente. Los fsicos se encuentran con la
misma situacin en la teora cintica de los gases, donde el sistema determinantico en
principio, es tan complejo (con el nmero de molculas tpicamente del orden de
magnitud de la constante de Avogadro
) que slo la descripcin estadstica de
sus propiedades es viable.
La mecnica cuntica, debido al principio de indeterminacin de Heisenberg,
slo puede ser descrita actualmente a travs de distribuciones de probabilidad, lo que le
da una gran importancia a las descripciones probabilsticas. Algunos cientficos hablan
de la expulsin del paraso.[cita requerida] Otros no se conforman con la prdida del
determinismo. Albert Einstein coment estupendamente en una carta a Max Born:
Jedenfalls bin ich berzeugt, da der Alte nicht wrfelt. (Estoy convencido de que Dios
no tira el dado). No obstante hoy en da no existe un medio mejor para describir la fsica
cuntica si no es a travs de la teora de la probabilidad. Mucha gente hoy en da
confunde el hecho de que la mecnica cuntica se describe a travs de distribuciones de
probabilidad con la suposicin de que es por ello un proceso aleatorio, cuando la
mecnica cuntica es probabilstica no por el hecho de que siga procesos aleatorios sino

por el hecho de no poder determinar con precisin sus parmetros fundamentales, lo que
imposibilita la creacin de un sistema de ecuaciones determinista.

Clculo
Calcular la probabilidad es posible, utilizando un diagrama de rbol, o tablas y
grficas:
1) La vida media de una lmpara, segn el fabricante, es de 68 meses, con una
desviacin tpica de 5. Se supone que se distribuye segn una distribucin
normal En un lote de 10.000 lmparas. a) Cuntas lmparas superarn
previsiblemente los 75 meses? b) Cuntos lmparas se estropearn antes de
60 meses?

a) t = (75 -68)/5 = 1,4


P (X > 75) = (t > 1,4) = 1 - P (t 1,4) = 1 - 0,9192 = 0,0808
Luego, el 8,08% de las lmparas (808 lmparas) superarn los 75 meses
b) t = (60 -68)/5 = -1,6
P (X 60) = (t -1,6) = P (t> 1,6) = 1 - P (t 1,6) = 0,0548
Luego, el 5,48% del lote (548 lmparas) no llegarn probablemente a durar 60 meses
2) Una empresa instala en una ciudad 20.000 bombillas para su iluminacin. La
duracin de una bombilla sigue una distribucin normal con media 302 das
y desviacin tpica 40 das. Calcular. a) Cuntas bombillas es de esperar que
se fundan antes de 365 das? Cuntas durarn ms de 400 das? Explica
razonadamente las respuestas.
a) Tipificamos el valor 365 t = (365 -302)/40 = 1,575
P (X 365) = P (t 1,575 ) = 0,9418
Luego el 94,18% de las lmparas, es decir 20.000 0.9418 = 18.836 bombillas se
fundirn antes de 365 das
b) Tipificamos el valor 400 t = (400-302)/40 = 2,45
P (X > 400) = P (t >2,45 ) = 1- P (t 2,45 ) = 1 - 0,9929 = 0,0071
Entonces el 0,71% de las lmparas, es decir 20.000 0.0071 = 142 bombillas
durarn ms de 400 das.
3) Hallar la probabilidad de que al lanzar al aire dos monedas, salgan:

I) Dos caras.

II) Dos cruces.

III) Dos caras y una cruz.

4) Hallar la probabilidad de que al levantar unas fichas de domin se obtenga un


nmero de puntos mayor que 9 o que sea mltiplo de 4.

c) Un dado est trucado, de forma que las probabilidades de obtener las distintas
caras son proporcionales a los nmeros de estas. Hallar:
A) La probabilidad de obtener el 6 en un lanzamiento.

B) La probabilidad de conseguir un nmero impar en un lanzamiento.

d) Se lanzan dos dados al aire y se anota la suma de los puntos obtenidos. Se pide:
A) La probabilidad de que salga el 7.

B) La probabilidad de que el nmero obtenido sea par.

C) La probabilidad de que el nmero obtenido sea mltiplo de tres.

a) Variables aleatorias continuas


Supongamos que el recorrido de X est formado por un gran nmero finito de
valores, por ejemplo, todos los valores x en el intervalo 0x1 de la forma 0,0.01, 0.02,
,0.98, 0.99, 1.00. Con cada uno de esos valores est asociado un nmero no negativo
p (xi)=P(X=xi), i=1,2,, cuya suma es igual a 1. Esta situacin se representa
geomtricamente en la figura.

P(x)

Matemticamente podra ser ms fcil idealizar la anterior descripcin


probabilstica de X al suponer que X puede tomar todos los valores posibles, 0x1. Si
hacemos esto, Qu le sucede a las probabilidades puntuales p(xi)?. Puesto que los
valores posibles de x no son contables, en realidad no podemos hablar del i-simo valor
de X y, por lo tanto, p(xi) pierde significado
Lo que haremos es sustituir la funcin p, definida solo para x1, x2,,por una
funcin f definida (en el contexto presente) para todos los valores de x, 0x1. Las
propiedades de la ecuacin:

p(xi) = 1
i=1
1
se sustituirn por f(x) 0 y f(x) dx =1. Se procede formalmente como sigue.
0

Definicin: Se dice que X es una variable aleatoria continua, si existe una


funcin f, llamada funcin de densidad de probabilidad (fdp) de X, que satisface las
siguientes condiciones:
a) f(x) 0 para toda x,

b)

f(x) dx = 1.

b
c) Para calquier a,b, tal que -< a <b <+, tenemos P(a X b) = f(x) dx
a

Observaciones:
a) Fundamentalmente queremos decir que X es una variable aleatoria continua si X
puede tomar todos los valores en algn intervalo (c,d), donde c y d pueden ser ( +) respectivamente. La existencia estipulada de una fdp es un mtodo
matemtico que tiene una base intuitiva considerable y hace ms sencillo
nuestros clculos. En relacin con esto, de nuevo se debe sealar que cuando
suponemos que X es una variable aleatoria continua, estamos considerando la
descripcin idealizada de X.
b) P(c < X < d) representa el rea bajo la grfica de la figura de la fdp f entre x = c
y z = d.
F(x)

x
x=c

z=d

c) Una consecuencia de la descripcin probabilstica de X para cualquier valor


especfico de X, por ejemplo xo, es ue tenemos P(X=xo)= 0, puesto que
xo
P(X=xo) =
f(x)dx = 0.
xo
Este resultado puede parecer contrario a nuestra intuicin. Debemos establecer,
sin embargo, que si permitimos que X tome todos los valores en un intervalo, entonces
la probabilidad cero no es equivalente con la imposibilidad. Por lo tanto e el cas
continuo, P(A)= no implica A= el conjunto vaco. Para decirlo de un modo ms
informal, consideremos que elegimos un punto al azar en el segmento {x | 0 x 2}

Aunque quisiramos estar de acuerdo (para fines matemticos) con que cada
punto concebible del segmento pudiera ser el resultado de nuestro experimento, nos
sorprenderamos mucho si en realidad escogieramos el punto medio del segmento, o
cualquier otro punto especfico de ese elemento. Cuando indicamos esto en un lenguaje
matemtico preciso, decimos que el evento tiene probabilidad 0. En vista de estas
consideraciones, todas las siguientes probabilidades son iguales si X es una variable
aleatoria continua:
P(c < X < d), P(c < X < d), P(c < X < d), y P(c < X < d)
d) Aunque aqu no verificaremos los detalles, se puede demostrar que la anterior
asignacin de probabilidades a los eventos en Rx satisface los axiomas bsicos de
probabilidades, donde podemos tomar:
x | - < x < +
como el espacio muestral.
+
e) Si una funcin f* satisface las condiciones, f*(x) 0, para toda x, y f*(x)
dx=K,
donde K es un nmero positivo real (no
necesariamente igual a 1), entonces f* no satisface todas las condiciones para ser una
fdp. Sin amargo, podemos definir con facilidad una nueva funcin, digamos f, en donde
trminos de f* como sigue:
f*(x)
f(z)=

para toda x
K

Por tanto, f satisface todas las condiciones de una fdp.


f) Si X slo toma valores en un intervalo finito [ a, b], simplemente podemos
establecer f(x)=0 para todo x [a, b]. Por tanto, la fdp est definida para todos los
valores reales de x, y debemos exigir que:
Cuando quiera que la fdp se especifique slo para ciertos valores de x,
supondremos que es cero para cualquier otro.
g) f(x) no representa la probabilidad de nada. Hemos observado que por
ejemplo, P(X=2)=0 y, por tanto, f(2) ciertamente no representa esta probabilidad. Slo
cuando la funcin se integra entre dos lmites produce una probabilidad. Sin embargo,
podemos dar una interpretacin de f(x) x como sigue. Del teorema del valor medio del
clculo se deduce que:
P (x X x + x) =

x+ x
f(s)ds= x f(x
x + x
x

Si x es pequea, f(x) x es aproximadamente igual a P(x X x+ x).


( Si f es continua por la derecha, esta aproximacin llega a ser ms segura cuando x
0.)
h) Deberamos sealar de nueva cuenta que la distribucin de probabilidades
( en este caso la fdp es inducida en Rx por las probabilidades asociadas con eventos en
S. As cuando escribimos P(c< X< d), queremos decir, como siempre, P[c< X(s)<d], que
a su vez es igual a P[s | < X(s) <d], puesto ue estos eventos son equivalentes, la
definicin anterior, estipula esencialmente la existencia de una fdp f definida en una Rx
tal que
d
P [s | c < X(s) < d] =
f(x) dx
c
Nuevamente eliminaremos la naturaleza funcional de X, y por tanto, estaremos
interesados slo en Rx y la fdp f.
i) En este caso contino, otra vez podemos considerar la siguiente analoga con
la mecnica: supngase que tenemos una masa total de una unidad, distribuida
continuamente en el intervalo a x b. Entonces , f(x) la densidad de la masa en el
punto x y
d
f(x) dx representa la masa total contenida en el intervalo c < x < d.
c

Ejemplos:

1) En el anlisis precedente sobre variable aleatoria continua se supuso la


existencia de una fdp. Consideremos un ejemplo simple en el cual podamos
determinar con facilidad la fdp haciendo una suposicin apropiada acerca de la
conducta probabilstica de la variable aleatoria. Supngase que escogemos un
punto en el intervalo (0,1). Representemos la variable aleatoria X cuyo valor es
la coordenada x del punto elegido.
Suposicin: Si I s cualquier intervalo entre (0,1), entonces la Prob [ X
es
directamente proporcional a la longitud de I, por ejemplo, L(I). Esto es,

Prob [X I]= kL(I), donde k es la constante de proporcionalidad. ( Es fcil ver, tomando


I=(0,1)y observando que L((0,1))=1 y Prob[X (0,1)]1, que k=1.)
Obviamente X toma todos los valores en (0,1), Cul es su fdp? Esto es, Podemos
encontrar una funcin f tal que:
b
P (a < X < b) =

f(x) dx ?
a

Ntese que si a < b < 0 o 1 < a < b, P(a < X < b) =0 y,por tanto, f(x)=0.Si 0 < a < b < 1,
P(a< X < b)=b a y, por tanto, f(x)= 1. As encontramos:
1, 0< x < 1,
F(x) =
0, para cualquier otro valor.

F(x)

F(x)

(1,2)

X=1500

X=2500

2) Supngase que la variable aleatoria X es continua. Sea la fdp f dada por


F(x)= 2x,

0 < x < 1,

= 0 para cualquier otro valor.


+
Claramente, f(x) 0 y f(x)dx =

2x dx =1. Para calcular P( X), slo debemos

-
evaluar la integral

(2x) dx=1/4
0

El concepto de probabilidad condicional se puede aplicar con propiedad a las variables


aleatorias. As en el ejemplo anterior debimos evaluar P(X<1/2| X<2/3). Aplicando de
manera directa la definicin de probabilidad individual, tenemos:

P(X |1/3 X 2/3= P(1/3 X )


P(1/3 X 2/3)
1/2

2x dx

1/3

5/36

=
2/3

5
=

1/3

12

2x dx

1/3

b) Distribucin Normal
En estadstica y probabilidad se llama distribucin normal, distribucin de Gauss
o distribucin gaussiana, a una de las distribuciones de probabilidad de variable
continua que con ms frecuencia aparece en fenmenos reales.

La grfica de su funcin de densidad tiene una forma acampanada y es simtrica


respecto de un determinado parmetro. Esta curva se conoce como campana de Gauss.
La importancia de esta distribucin radica en que permite modelizar numerosos
fenmenos naturales, sociales y psicolgicos. Mientras que los mecanismos que
subyacen a gran parte de este tipo de fenmenos son desconocidos, por la ingente
cantidad de variables incontrolables que en ellos intervienen, el uso del modelo normal
puede justificarse asumiendo que cada observacin se obtiene como la suma de unas
pocas causas independientes.
La distribucin normal tambin es importante por su relacin con la estimacin
por mnimos cuadrados, uno de los mtodos de estimacin ms simples y antiguos.
Algunos ejemplos de variables asociadas a fenmenos naturales que siguen el
modelo de la normal son:

Caracteres morfolgicos de individuos como la estatura;

Caracteres fisiolgicos como el efecto de un frmaco;

Caracteres sociolgicos como el consumo de cierto producto por un mismo


grupo de individuos;

Caracteres psicolgicos como el cociente intelectual;

Nivel de ruido en telecomunicaciones;

Errores cometidos al medir ciertas magnitudes;

etc.

La distribucin normal tambin aparece en muchas reas de la propia estadstica.


Por ejemplo, la distribucin muestral de las medias muestrales es aproximadamente
normal, incluso si la distribucin de la poblacin de la cual se extrae la muestra no es
normal.[] Adems, la distribucin normal maximiza la entropa entre todas las
distribuciones con media y varianza conocidas, lo cual la convierte en la eleccin
natural de la distribucin subyacente a una lista de datos resumidos en trminos de
media muestral y varianza. La distribucin normal es la ms extendida en estadstica y
muchos tests estadsticos estn basados en una supuesta "normalidad". En probabilidad
la distribucin normal aparece como el lmite de varias distribuciones de probabilidades
continuas y discretas.

Distribucin normal
Funcin

de

densidad

de

probabilidad

La lnea verde corresponde a la distribucin


normal estndar
Funcin

de

distribucin

Parmetros
>0
Dominio
Funcin
densidad (pdf)

de

Funcin
de
distribucin (cdf)
Media
Mediana
Moda
Varianza

de

probabilidad

Coeficiente
simetra

de

Curtosis

0
0

Entropa
Funcin generadora
de momentos (mgf)
Funcin
caracterstica

Ejemplos:

1) Supngase que X tiene distribucin N(3,4). Deseamos encontrar un nmero c tal


que:
P(X > c) = 2P (X < c)
Observemos que (X-3)/2 tiene distribucin normal N(0,1). Por tanto,
P( X > c) = P ( X-3 /2 > c-3 /2) = 1 - (c-3/2)
Tambin,
P( X < c)= P ( X-3/2 < c-3/2)= c-3/2)
Por tanto, la condicin anterior se puede escribir 1-
c-3/2)] = 2
c-3/2]. Esto se
convierte en
c-3)/2= -0.43, obteniendo c=2.14.

2) Supngase que la resistencia a romperse de un gnero de algodn (en libras),


llammosle X, est distribuida normalmente con E(X)=165 y V(X)=9.

Suponiendo adems que una muestra de este gnero se considera defectuosa si


X< 162, Cu es la probabilidad de que un gnero elegido al azar sea
defectuoso?
Debemos calcular P(X < 162). Sin embargo,
P(X <162)= P ( X-165/3 < 162-165/3)
Observacin:
Una objecin inmediata al uso de la distribucin normal puede encontrarse aqu. Es
obvio que X, la resistencia del genero de algodn , no puede tomar valores negativos ,
mientras que una variable aleatoria distribuida normalmente puede tomar todos los
valores positivos y negativos. Sin embargo el modelo anterior ( en apariencia invalidado
debido a las objeciones encontradas) asigna una probabilidad despreciable al evento
{X<0}. Esto es,
P(X<0)= P( X-165/3< 0-165/3) = (-55) lo cual es aproximadamente 0.
Esta situacin ocurrir con frecuencia: se supone que cierta variable aleatoria X, que
sabemos no puede tomar valores negativos, tiene una distribucin normal tomando as
(tericamente, al menos) valores tanto positivos como negativos. Mientras se escojan
los parmetros y

de modo que P(X<0) sea esencialmente cero, tal representacin

es perfectamente vlida.

3) La vida media de una lmpara, segn el fabricante, es de 68 meses, con una


desviacin tpica de 5. Se supone que se distribuye segn una distribucin
normal En un lote de 10.000 lmparas. a) Cuntas lmparas superarn

previsiblemente los 75 meses?. b) Cuntos lmparas se estropearn antes de 60


meses?

a)
t = (75 -68)/5 = 1,4
P (X > 75) = (t > 1,4) = 1 - P (t 1,4) = 1 - 0,9192 = 0,0808
Luego, el 8,08% de las lmparas (808 lmparas) superarn los 75 meses
b)
t = (60 -68)/5 = -1,6
P (X 60) = (t -1,6) = P (t> 1,6) = 1 - P (t 1,6) = 0,0548
Luego, el 5,48% del lote (548 lmparas) no llegarn probablemente a durar 60 meses

4) Una empresa instala en una ciudad 20.000 bombillas para su iluminacin. La


duracin de una bombilla sigue una distribucin normal con medios 302 das y
desviacin tpica 40 das. Calcular. a) Cuntas bombillas es de esperar que se
fundan antes de 365 das? Cuntas durarn ms de 400 das? Explica
razonadamente las respuestas.

a) Tipificamos el valor 365

t = (365 -302)/40 = 1,575

P (X 365) = P (t 1,575 ) = 0,9418


Luego el 94,18% de las lmparas, es decir 20.000 0.9418 = 18.836 bombillas se
fundirn antes de 365 das
b) Tipificamos el valor 400

t = (400-302)/40 = 2,45

P (X > 400) = P (t >2,45 ) = 1- P (t 2,45 ) = 1 - 0,9929 = 0,0071


Entonces el 0,71% de las lmparas, es decir 20.000 0.0071 = 142 bombillas durarn
ms de 400 das.

c) Distribucin Binomial.

En estadstica, la distribucin binomial es una distribucin de probabilidad discreta que


mide el nmero de xitos en una secuencia de n ensayos independientes de Bernoulli,
con una probabilidad fija p de ocurrencia del xito entre los ensayos.
Un experimento de Bernoulli se caracteriza por ser dicotmico, esto es, slo son
posibles dos resultados. A uno de estos se denomina xito y tiene una probabilidad de
ocurrencia p y al otro, fracaso, con una probabilidad q = 1 - p. En la distribucin
binomial el anterior experimento se repite n veces, de forma independiente, y se trata de
calcular la probabilidad de un determinado nmero de xitos. Para n = 1, la binomial se
convierte, de hecho, en una distribucin de Bernoulli.
Para representar que una variable aleatoria X sigue una distribucin binomial de
parmetros n y p, se escribe:
La distribucin Binomial es la base del test binomial de significacin estadstica.

Caractersticas Analticas
Su funcin de probabilidad est dada por:

donde
, siendo
en )

las combinaciones de

en (

elementos tomados de

Supongamos que un experimento aleatorio tiene las siguientes caractersticas:

En cada prueba del experimento slo son posibles dos resultados: el


suceso A (xito) y su contrario(fracaso).

El resultado obtenido en cada prueba es independiente de los resultados


obtenidos anteriormente.

La probabilidad del suceso A es constante, la representamos por p, y no


vara de una prueba a otra. La probabilidad de es 1- p y la
representamos por q .

El experimento consta de un nmero n de pruebas.

Todo experimento que tenga estas caractersticas diremos que sigue el modelo de la
distribucin Binomial. A la variable X que expresa el nmero de xitos obtenidos en
cada prueba del experimento, la llamaremos variable aleatoria binomial.
La variable binomial es una variable aleatoria discreta, slo puede tomar los valores 0,
1, 2, 3, 4, ..., n suponiendo que se han realizado n pruebas. Como hay que considerar
todas las maneras posibles de obtener k-xitos y (n-k) fracasos debemos calcular stas
por combinaciones (nmero combinatorio n sobre k).
La distribucin Binomial se suele representar por B(n,p) siendo n y p los parmetros
de dicha distribucin.
Funcin de Probabilidad de la v.a. Binomial
Funcin de probabilidad de la distribucin Binomial o tambin denominada funcin de
la distribucin de Bernoulli (para n=1). Verificndose: 0 p 1

Como el clculo de estas probabilidades puede resultar algo tedioso se han construido
tablas para algunos valores de n y p que nos facilitan el trabajo.
Ver Tabla de la Funcin de Probabilidad de la Binomial
Parmetros de la Distribucin Binomial

Funcin de Distribucin de la v.a. Binomial

Siendo k el mayor nmero entero menor o igual a xi.


Esta funcin de distribucin proporciona, para cada nmero real xi, la probabilidad de
que la variable X tome valores menores o iguales que xi.
El clculo de las F(x) = p( X x) puede resultar laborioso, por ello se han construido
tablas para algunos valores de n y p que nos facilitan el trabajo.

Ejemplos
1) Al poner en funcionamiento una mquina, existe cierta probabilidad de que el
operario cometa un error. De manera realista puede suponerse que ste aprende
en cuanto sabe que la probabilidad de cometer errores disminuye cuando use la
mquina en repetidas ocasiones. Supongamos que el operario hace n intentos y
que los n ensayos son estadsticamente independientes. Supongamos de manera
especifica que P( en error cometido en la i-sima repeticin)= 1/(i+1),i=1,2,n.
Supongamos que se consideran 4 intentos ( esto es, n=4) y que se define la
variable aleatoria X como el nmero de operaciones hechas sin error en la
maquina. Observemos que X no esta distribuida binomialmente porque la
probabilidad de xito no es constante,
Para calcular la probabilidad de X= 3, por ejemplo, procedemos como sigue: X=3 si y
slo si hay exactamente un intento no exitoso. Esto puede suceder en el primero, en el
segundo, tercero o cuarto ensayo.
Por lo tanto,
P(X=3)= 2/3 4/5 +1/2 1/3 4/5 +1/2 2/3 4/5 + 2/3 1/5
= 5/12
2) Consideremos una situacin semejante a la descrita en el ejemplo anterior. Esta
vez supondremos que hay una probabilidad constante p1 de no cometer error en
la mquina durante cada uno de los primeros n1 intentos y una probabilidad
constante p2<p1 de no cometer error en cada una de las siguientes n2
repeticiones. Sea X el nmero de operaciones exitosas de la mquina durante los
n=n1+n2 intentos independientes. Encontramos una expresin general para
P(X= k). Por la misma razn dada en el ejemplo precedente, X no esta
distribuida binomialmente. Para obtener P(X=k) procedemos como sigue.
Sea Y1 el nmero de operaciones correctas durante los primeros n1 intentos y sea Y2el
nmero de operaciones correctas durantes los segundos n2 intentos.
Por lo tanto Y1 y Y2 son variables aleatorias independientes y X= Y1+Y2. As, X= si y
slo si Y1=r y Y2=k-r, para cualquier entero que satisfaga 0 < r < n1 y 0< k- r < n2Las restricciones anteriores sobre r son equivalentes a 0< r < n1 y k-n2< r < k.
Combinndolas podemos escribir
Max (0,k n2) < r < min (k,n19

d) Distribucin de Poisson
Sea X una variable aleatoria que toma los valores posibles: 0,1,n, Si
- k
P(X=k)= e , k= 0,1,,n,
k!
Decimos que X tiene una distribucin de Poisson con parmetro > 0.
Para verificar que la anterior representa una legtima distribucin de probabilidades,
simplemente observemos que

- k
-
P(X=k)= (e a /k!)= e e = 1.
k=0
k=0

Observacin:
Puesto que estamos definiendo en forma directa la variable aleatoria en trminos de su
recorrido y distribucin de probabilidades, sin referencia a ningn espacio muestral
original S, podemos suponer que el espacio muestral S se ha identificado con Rx y e
X(s)=s. Es decir, los resultados del experimento son simplemente los nmeros 0,1,2,
y las probabilidades asociadas con cada uno de esos resultados estn dadas por las
ecuaciones anteriores.

Ejemplos:
1) En una concurrida interseccin de trfico la probabilidad p de que un automvil
tenga un accidente es muy escasa, digamos p=0.0001. Sin embargo, durante
cierta parte del da, entre las 4pm y las 6pm un gran nmero de automviles pasa
por la interseccin, digamos 1000. En dichas condiciones, Cul es la
probabilidad de que dos o ms accidentes ocurran durante ese periodo?
Formulemos algunas hiptesis. Supongamos, en primer lugar, que el valor de p es el
mismo para cada uno de los automviles. En segundo lugar, supongamos que si un
automvil tiene o no un accidente, no depende de lo que le suceda a cualquier otro
automvil. (Esta suposicin, obviamente, no es realista; no obstante la formularemos.)
As podremos suponer que si X es el nmero de accidentes entre los 1000 automviles
que llegan, entonces X tiene una distribucin binomial con p=0.0001. (Otra hiptesis,
no indicada de manera explicita, es que n, el nmero de automviles que pasa por la
interseccin entre las 4pm y las 6pm est predeterminada en 1000.desde luego, un
planteamiento ms realista seria considerar n misma como una variable aleatoria cuyo
valor depende de un mecanismo aleatorio. Sin embargo no haremos esto aqu, slo
consideraremos n como fija.) Por tanto podemos obtener el valor exacto de la
probabilidad deseada:

P(X 2)= 1- P(X=0)-P(X=1)


10000
999
= 1- (0.9999)
-1000 (0.0001) (0,9999)
La evaluacin de los valores anteriores da origen a una dificultad considerable. Puesto
que n es grande y p es pequea, aplicamos el teorema de la Distribucin de Poisson
como una aproximacin a la distribucin binomial y obtenemos la aproximacin
siguiente:
-0.1
k
P(X=k) e (0.1)
k!
Por tanto,
-0,1
P(X2)1- e

(1+0.1)= 0.0045.

2) Supngase que un proceso de fabricacin produce artculos de tal manera que


cierta proporcin (constante) de artculos, digamos p, son defectuosos. Si se
obtiene un lote n de tales artculos, la probabilidad de obtener exactamente k
defectuosos pude calcularse de la distribucin binomial como

P(X=k)=

n
k

k
P

n-k
(1-P)

, donde X es el nmero de defectuosos en el lote. Si n es grande y p es pequea ( como


sucede a menudo), debemos aproximar la probabilidad anterior por:
-np
P(X=k) e

k
(np)

k!
Supngase, por ejemplo, que un fabricante produce artculos de los cuales alrededor de
1 en 1000 son defectuosos. Esto es, p= 0,001. Por tanto, usando la distribucin
binomial, encontramos que en un lote de 500 artculos la probabilidad de que ninguno
sea defectuoso es:
500
(0.999)
= 0.609. si aplicamos la aproximacin de Poisson, esta probabilidad puede
escribirse como:
-0.5
e

= 0.61.

La probabilidad de encontrar 2 o ms artculos defectuosos es, de acuerdo con la


aproximacin de Poisson:
-0.5
1e
(1+0.5)= 0.085

e) Distribucin Chi-Cuadrada
Un caso especial muy importante de la distribucin gama, se obtiene si hacemos = y
r =n/2, donde n es un entero positivo. Obtenemos una familia de distribuciones de un
parmetro con fdp
n/2-1
f(z) =

1
z
n/2
2 (n/2)

-z/2.

z >0

Una variable aleatoria Z que tiene fdp dada por la ecuacin anterior se dice que tiene
una distribucin X- cuadrada con n grados de libertad ( se denota con: 2Xn ). En la
figura se muestra la fdp para n= 1,2 y n > 2. Una consecuencia inmediata de la
ecuacin:
2
E(X)= r/ , V(X9= r /
Es que si Z tiene una fdp de la ecuacin:
n/2-1
f(z) =

1
z
n/2
2 (n/2)

-z/2.

z >0

Tenemos:
E(Z)=n ,

f(z)

V(Z)= 2n

f(z)

f(z)

(a) n=1

(b) n=2

z
(c)n>2

La distribucin X- cuadrada tiene muchas aplicaciones importantes en inferencia


estadstica. Debido a su relevancia, la distribucin X- cuadrada est tabulada para
diversos valores del parmetro n.
F(z)

1-
2
X

La Distribucin chi-cuadrado no tiene sentido para valores negativos de x, como se


puede ver en la figura.

Tngase en cuenta que para k = 1 y k = 2 la funcin de densidad para x = 0, se hace


infinito:

Para el resto de los valores de k, para x = 0, la funcin vale 0.

La Distribucin de probabilidad de esta funcin para valores menores de un x dado, que


representamos por

donde:

Esta integral no tiene una solucin conocida, y solo se conocen mtodos numricos para
calcular sus valores, hay distintos tipos de tablas y algoritmos para ordenador con los
que se pueden calcular sus soluciones, veamos una tabla distribucin chi-cuadrado y su
modo de utilizacin.

La Tabla
Esta tabla presenta la distribucin de probabilidad de chi-cuadrado para distintos valores
de k(de 1 a 10) y de x(de 0 a 20 de 0,2 de incremento), presentndolo con seis cifras
decimales, separadas de tres en tres por un espacio en blanco para facilitar la lectura, en
la fila superior estn los valores de k, y en la columna de la izquierda los de x, donde se
cruzan la columna de la k buscada y la fila de la x, se encuentra el valor de la
probabilidad acumulada desde 0 a la x buscada.

Ejemplo:
Cual es la Distribucin de probabilidad de chi-cuadrado de 4 grados de libertad de que
x< 1,2
Buscando en la tabla la columna del 4 y la fila de 1,2, tenemos:

Para otros valores de x


En la tabla podemos encontrar directamente la probabilidad:
pueden presentar otros casos, veamos algunos.

, pero se

Para la variable mayor que x

Para calcular

, partimos de la expresin:

La probabilidad de que la variable estadstica sea menor que x ms la probabilidad de


que sea mayor que x es la certeza, de probabilidad 1.
Operando:

Ejemplo
Calcular la distribucin de probabilidad de una variable estadstica chi-cuadrado, de 6
grados de libertad sea mayor de 3,4.
segn lo anterior:
buscando en la tabla tenemos:
con lo que tenemos:
operando tenemos:
que es la respuesta a la pregunta.
Para la variable mayor que x1 y menor que x2

Para calcular la probabilidad de que:

siendo:
tenemos que:

Ejemplo
Cual es la probabilidad de que una variable chi-cuadrado de 8 grados de libertad este
comprendida entre 3,4 y 5,6.
Esto es:
segn la tabla tenemos:

segn lo anterior, tenemos que:


sustituyendo los valores:
operando:
Con lo que tenemos la respuesta.

Interpolacin Lineal
La funcin chi-cuadrado es continua para x mayor que cero, pero en la tabla solo se
recogen algunos de sus valores, si bien la tabla podra hacerse ms extensa el numero de
valores recogidos siempre seria finito, para calcular los valores no recogidos en la tabla
podemos emplear la interpolacin lineal.

La interpolacin lineal, parte de unos puntos conocidos de la funcin, y los valores


intermedios los determina por la recta que une estos dos puntos, este mtodo siempre
aade un cierto error, al sustituir la funcin: y= f(x) por la recta que une dos puntos: y=
r(x), que siempre ser menor que tomar el valor conocido ms prximo de la funcin,
ver la figura, es importante que los puntos tomados estn lo ms prximos entre s, para
que este error sea el mnimo posible.
La expresin:

determina el valor y de la funcin para un x dado, partiendo de dos puntos conocidos


(x1,y1) y (x2,y2), siendo x1 < x < x2.

Ejemplo
Cual es la probabilidad de una distribucin chi-cuadrado de 5 grados de libertad, de que
x sea menor que 1,75.
Esto es:
el valor 1,75 no esta en la tabla, pero si tenemos que:

sustituyendo en la expresin:

tenemos que:

operando tenemos:

esto es:
que resulta:
que es el resultado buscado:

Tabla inversa de distribucin chi-cuadrado


Otra forma de tabla de distribucin chi-cuadrado, en la cual los valores de bsqueda son
los grados de libertad y la probabilidad acumulada, dada la expresin

En este tipo de tablas se parte de los valoras conocidos k y p, y se obtiene x, de forma


inversa a lo visto anteriormente, lo que resulta interesante pera responder a la pregunta:
Para una distribucin chi-cuadrado de k grados de libertad, cual es el valor de x que deja
a su izquierda una probabilidad p.
Este tipo de problema en la practica, suele ser ms usual, la tabla es ms compacta y
tambin nos permite calcular la probabilidad con la tabla directa.
En la tabla tenemos en la fila superior las probabilidades P, en la columna de la
izquierda los grados de libertad k, donde se cruzan la fila y la columna correspondientes
el valor de x que en una funcin chi-cuadrado de k grados de libertad, deja a su
izquierda una probabilidad P.

Ejemplo
Cual es el valor de x, de una distribucin chi-cuadrado de 6 grados de libertad, que deja
a su izquierda una probabilidad del 80%
Consultando la tabla tenemos que:
Calculo de la probabilidad con la tabla inversa.
Empleando esta tabla podemos realizar clculos directos como en la anterior,
normalmente ser necesaria recurrir a la interpolacin lineal para obtener los resultados

Ejemplo
Cul es la distribucin de probabilidad de chi-cuadrado de 4 grados de libertad de que
x < 1,2 ?
este es el mismo ejemplo que en la tabla directa, veamos como se hara en este caso:
la pregunta es:
este valor no figura en la tabla pero si tenemos en la fila de k= 4, que:

por la expresin de interpolacin lineal:

sustituyendo los valores de este caso:

operando:

esto es:
que da como resultado:
esto es:

como se puede ver hay una diferencia del orden de la tercera cifra decimal, respecto a la
bsqueda directa en la tabla, esta diferencia se produce por la interpolacin lineal, al
sustituir la funcin por la recta que une dos puntos conocidos, y a la relativamente gran
diferencia entre x1 y x2, que es el 60% al valor de x1.
Para valores de k grandes

Cuando el valor de k es suficientemente grande se tiene en cuenta que:


Con lo que podemos aproximar la distribucin Chi-cuadrado por la distribucin normal,
de media k y desviacin tpica raz de 2k, empleando la tabla distribucin normal
tipificada para su clculo.

Ejemplo:
2
Supngase que la velocidad V de un objeto tiene distribucin N(0,1). Sea K=mV 72 la
energa cintica del objeto. Para encontrar la fdp de K, busquemos primero la fdp de
2
S= V . Al aplicar directamente el teorema:
2
Sean X una variable aleatoria continua con fdp f y Y=X . Entonces, la variable aleatoria
Y tiene fdp dada por:
g(y)=

1
2 y

[f( y) + f(-y)]

Se tiene entonces que:


1
[ s) + (- s)]

g(s)=
2s
-1/2
=s

-s/2
1 e
2

Si comparamos esto con la ecuacin:


n/2-1
f(z) =

1
n/2
2

-z/2.

z >0

(n/2)

Y recordamos que (1/2)= , observamos que S tiene una distribucin:


2
X1 . As encontramos que el cuadrado de una variable aleatoria con distribucin N(0,1)
tiene una distribucin
2
X1. (Este es el resultado que generalizaremos posteriormente)
Ahora podemos obtener la fdp h de la energa cintica K. Puesto que K es una funcin
montona de 2
V,
Cuya fdp esta dada por la g anterior, tenemos directamente;
-1/2 -k/m
H(k)=2/m g(2/m k)= 2/m 1/2 (2/m k) e
,k>0
2
2
A fin de evaluar P(K5)=P ((m/2) V 5) = P(V 10/m)
Esta ltima probabilidad se puede obtener de manera directa de las tablas de la
2
distribucin x- cuadrada ( si m es conocida) puesto que V tiene una distribucin
2
2
2
x1 . Puesto que E( V )= 1 y la varianza ( V )= 2, entonces de la ecuacin:
E(Z)=n ,

V(Z)= 2n

Encontramos directamente:
2
E(K)=m/2 y V(K)= m /2

f) Distribucin de Weibull
La distribucin de Weibull, que recibe su nombre del investigador sueco que la
desarroll, se caracteriza por considerar la tasa de fallos variable, siendo utilizada por su
gran flexibilidad, al poder ajustarse a una gran variedad de funciones de fiabilidad de
dispositivos o sistemas.
La distribucin de Weibull complementa a la distribucin exponencial y a la normal, se
usa cuando se sabe de antemano que una de ellas es la que mejor describe la
distribucin de fallos o cuando se han producido muchos fallos (al menos 10) y los
tiempos correspondientes no se ajustan a una distribucin ms simple.
La distribucin de Weibull nos permite estudiar cul es la distribucin de fallos de un
componente clave de seguridad que pretendemos controlar y que a travs de nuestro
registro de fallos observamos que stos varan a lo largo del tiempo y dentro de lo que
se considera tiempo normal de uso.
Definicin:
Modificando la nocin de tasa constante de fallas que condujo la ley exponencial de
falla. Supngase que la tasa de fallas Z, asociada con T, la duracin de un artculo, tiene
la forma siguiente:
-1
Z(t)= () t ,
Donde y son constantes positivas. De la ecuacin:
t
- 0 Z(s) ds
F(t)= Z(t) e
Obtenemos la expresin siguiente para la fdp de T:

-1 -t
F(t)= () t
e , t > 0, , > 0
Se dice que la variable aleatoria con fdp dada por la ecuacin anterior tiene una
distribucin de Weibull. La figura muestra la fdp para =1 y =1,2,3. La funcin
De confiabilidad R est dada por:

-t
R(t)= e
que es una funcin decreciente.

f(t)
=1
=3

=2

f
0.4

0.8

1.2

Observacin:
La distribucin exponencial es un caso especial de distribucin de Weibull, puesto que
obtenemos la distribucin exponencial si hacemos =1 en la ecuacin:
-1
Z(t)= () t
La suposicin de la ecuacin anterior establece que Z(t) no es una constante, sino ue es
proporcional a las potencias de t. Por ejemplo, si =2 , Z es una funcin lineal de t; si
=3, Z es una funcin cuadrtica de t, etc. As, Z es una funcin creciente, decreciente o
constante de t, segn el valor de como se indica en la figura:
z(t)

z(t)

=1
t
Z es constante

z(t)

>1
t
Z es creciente

0<< 1 t
Z es decreciente

Ejemplo
1) Los datos siguientes corresponden a los tiempos de falla de cierto componente
de un aeroplano: 23, 261, 87, 7, 120, 14, 62, 47, 225, 71, 246, 21, 42, 20, 5, 12,
120, 11, 3, 14, 71, 11, 14, 11, 16, 90, 1, 16, 52, 95.
Este tipo de datos se modela generalmente con una distribucin Weibull, cuya funcin
de densidad est dada por
(1)
Supongamos que se desea hacer inferencias sobre el parmetro
distribucin inicial no informativa

y los

datos listados previamente. Supongamos tambin que interesa estudiar la

distribucin predictiva de una observacin futura


disponible.
Dadas

, con base en la

observaciones

en vista de la informacin

de (1) y la distribucin inicial

distribucin final de

, la

est dada por

En este caso es posible integrar analticamente, por lo que despus de un poco de


lgebra obtenemos las siguientes expresiones para las distribuciones de inters.
Densidad marginal de

:
(2)

Densidad predictiva de

:
(3)

3) REGRESION Y CORRELACCION (TEORIA Y EJERCICIOS)

En estadstica, la regresin lineal o ajuste lineal es un mtodo matemtico que modela la


relacin entre una variable dependiente Y, y las Variables independientes Xi y un
trmino aleatorio . Este modelo puede ser expresado como:

: Variable dependiente, explicada o regresando.


: Variables explicativas, independientes o regresores.
: Parmetros, miden la influencia que las variables explicativas
tienen sobre el regresando.
Donde

es la interseccin o trmino "constante", las

respectivos a cada variable independiente, y

son los parmetros

es el nmero de parmetros

independientes a tener en cuenta en la regresin. La regresin lineal puede ser


contrastada con la regresin no lineal.

Regresin logstica
La regresin lineal tcnica que usa variables aleatorias, continuas se diferencia del otro
mtodo analtica que es la correlacin, porque esta ltima no distingue entre las
variables respuesta y la variable explicativa por que las trata en forma simtrica.
La mate matizacin nos da ecuaciones para manipular los datos, como por ejemplo
medir la circunferencia de los nios y nias y que parece incrementarse entre las edades
de 2 meses y 18 aos, aqu podemos inferir o predecir que las circunferencias del crneo
cambiara con la edad, en este ejercicio la circunferencia de la cabeza es la respuesta y la
edad la variable explicativa.

En la regresin tenemos ecuaciones que nos representan las diferentes clases de


regresin:

Regresin Lineal: y = A + Bx
Regresin Logartmica: y = A + BLn(x)
Regresin Exponencial: y = Ac(bx)
Regresin Cuadrtica: y = A + Bx +Cx2

+2 SD (98%)
Media (50%)
-2 SD (2%)
Para obtener un modelo de regresin es suficiente establecer la regresin para eso se
hace uso del coeficiente de correlacin: R.
R = Coeficiente de correlacin, este mtodo mide el grado de relacin existente entre
dos variables, el valor de R vara de -1 a 1, pero en la prctica se traba con un valor
absoluto de R.
El valor del coeficiente de relacin se interpreta de modo que a media que R se
aproxima a 1, es ms grande la relacin entre los datos, por lo tanto R (coeficiente de
correlacin) mide la aproximacin entre las variables.

CORRELACIN VALOR O RANGO


1) Perfecta 1) R = 1
2) Excelente 2) R = 0.9 < = R < 1
3) Buena 3) R = 0.8 < = R < 0.9
4) Regular 4) R = 0.5 < = R < 0.8
5) Mala 5) R < 0.5

Distribucin Divariante
La distribucin divariante es cuando se estudia en una poblacin dos variables, que
forman pares correspondientes a cada individuo.

Las notas de 10 alumnos en biologa y lenguaje


BIOLOGIA 2

LENGUAJE 2

10

Los pares de valores son: (2, 2) (4,2) (5,5)(8,7) (9,10) forman una distribucin divriate.
La correlacin, mtodo por el cual se relacionan dos variables se pude graficar con un
diagrama de dispersin de puntos, a la cual muchos autores le llaman nubes de puntos,
encuadrado dentro de un grfico de coordenadas X Y en la cual se pude trazar una recta
y cuyos puntos mas cercanos de una recta hablaran de una correlacin mas fuerte, ha
esta recta se le denomina recta de regresin, que puede ser positiva o negativa, la
primera contundencia a aumentar y la segunda en descenso o decreciente.
Tambin se puede describir un diagrama de dispersin en coordenadas cartesianas
valores como en la distribucin divriate, en donde la nube de puntos representa los
pares de valores.

GRAFICOS DE RECTA DE REGRESION

Por ltimo se pueden graficar las lneas de tendencia, herramienta muy til para
el mercadeo por que es utilizada para evaluar la resistencia que proyectan los precios.
Cuando una lnea de tendencia central se rompe ya sea con tendencia al alza o en la baja
es porque ocurre un cambio en los precios, por lo tanto las lneas de tendencia pueden
ser alcista cuando se unen los puntos sucesivos y bajista cuando se unen los puntos
mximos.
Tambin existen grficos que representan la dispersin de datos dentro de las
coordenadas cartesianas, sea las nubes de puntos y que pueden darse segn la relacin
que representa, que puede ser lineal, exponencial y sin relacin, esta ltima cuando los
puntos estn dispersos en todo el cuadro sin agruparse lo cual sugiere que no hay
relacin.

LOS GRFICOS SIGUIENTES NOS MUESTRAN ESTA RELACIN:


Relacin lneas:

Relacin Exponencial:

Sin Relacin

Matemticamente las ecuaciones seran:


Ajuste Lineal : Y = Bx + A
Ajuste Logartmico : Y =BLnX + A
Ajuste Exponencial : Y = AC BX
En el modelo de regresin lineal simple se utiliza la tcnica de estimacin de los
mnimos cuadrados, este modelo tiene solo una variable de prediccin y se supone una
ecuacin de regresin lineal.
En el siguiente ejemplo la relacin entre la calificacin y salario la variable repuesta es
el salario inicial y la variable predictiva o de prediccin es la calificacin promedia, si
se desea determinar una ecuacin de regresin para el salario inicial promedio como

una funcin de la calificacin promedio se podr graficar y procesar los datos en


una computadora, estos datos son:
CP = Calificacin Promedio
SI = Salario Inicial
De este grupo de datos se obtiene el siguiente grfico de dispersin.

Ejemplo: vamos a calcular la recta de regresin de la siguiente serie de datos de altura y


peso de los alumnos de una clase. Vamos a considerar que la altura es la variable
independiente "x" y que el peso es la variable dependiente "y" (podamos hacerlo
tambin al contrario):
Alumno Estatura Peso Alumno Estatura Peso Alumno Estatura Peso
x
x
x
x
X
x
x
x
x
Alumno
Alumno
Alumno
1,25
32
1,25
33
1,25
33
1
11
21
Alumno
Alumno
Alumno
1,28
33
1,28
35
1,28
34
2
12
22
Alumno
Alumno
Alumno
1,27
34
1,27
34
1,27
34
3
13
23
Alumno
Alumno
Alumno
1,21
30
1,21
30
1,21
31
4
14
24
Alumno
Alumno
Alumno
1,22
32
1,22
33
1,22
32
5
15
25
Alumno
Alumno
Alumno
1,29
35
1,29
34
1,29
34
6
16
26
Alumno
Alumno
Alumno
1,30
34
1,30
35
1,30
34
7
17
27
Alumno
Alumno
Alumno
1,24
32
1,24
32
1,24
31
8
18
28
Alumno
Alumno
Alumno
1,27
32
1,27
33
1,27
35
9
19
29
Alumno
Alumno
Alumno
1,29
35
1,29
33
1,29
34
10
20
30

El parmetro "b" viene determinado por:


b=

(1/30) * 1,034

------------------------------= 40,265
---------(1/30) * 0,00856
Y el parmetro "a" por:
a = 33,1 - (40,265 * 1,262) = -17,714
Por lo tanto, la recta que mejor se ajusta a esta serie de datos es:
y = -17,714 + (40,265 * x)
Esta recta define un valor de la variable dependiente (peso), para cada valor de la
variable independiente (estatura):

Estatura
x
1,20
1,21
1,22
1,23
1,24
1,25
1,26
1,27
1,28
1,29
1,30

Peso
x
30,6
31,0
31,4
31,8
32,2
32,6
33,0
33,4
33,8
34,2
34,6

Regresin simple y correlacin

La Regresin y la correlacin son dos tcnicas estadsticas que se pueden utilizar para
solucionar problemas comunes en los negocios. Muchos estudios se basan en la creencia
de que es posible identificar y cuantificar alguna Relacin Funcional entre dos o ms
variables, donde una variable depende de la otra variable. Se puede decir que Y depende
de X, en donde Y y X son dos variables cualquiera en un modelo de Regresin Simple.
"Y es una funcin de X" Y = f(X)
Como Y depende de X,
Y es la variable dependiente, y
X es la variable independiente.
En el Modelo de Regresin es muy importante identificar cul es la variable
dependiente y cul es la variable independiente. En el Modelo de Regresin Simple se
establece que Y es una funcin de slo una variable independiente, razn por la cual se
le denomina tambin Regresin Divariada porque slo hay dos variables, una
dependiente y otra independiente y se representa as:
Y = f (X) "Y est regresando por X"
La variable dependiente es la variable que se desea explicar, predecir. Tambin se le
llama regresando variable de respuesta.
La variable Independiente X se le denomina variable explicativa regresor y se le
utiliza para explicar y.

CORRELACIN
Cada conjunto de correlaciones se basa en un tipo de correlacin, que no es ms que una
lista de propiedades. stas pueden ser propiedades de datos, que se encuentran en el
propio mensaje, o propiedades de contexto, que describen detalles del sistema o de
mensajes no relacionados con los datos transmitidos en el mensaje.
Puede usar un tipo de correlacin en ms de un conjunto de correlaciones. Si necesita
establecer correlaciones entre distintos valores para las propiedades de un tipo de
correlacin, deber crear un conjunto de correlaciones nuevo: cada uno de ellos se
puede inicializar una sola vez. Puede promocionar las propiedades de un esquema de
propiedades para declarar que algunas de las propiedades de un mensaje estn
accesibles para la orquestacin.
En probabilidad y estadstica, la correlacin indica la fuerza y la direccin de
una relacin lineal y proporcionalidad entre dos variables estadsticas. Se considera que
dos variables cuantitativas estn correlacionadas cuando los valores de una de ellas

varan sistemticamente con respecto a los valores homnimos de la otra: si tenemos


dos variables (A y B) existe correlacin si al aumentar los valores de A lo hacen tambin
los de B y viceversa. La correlacin entre dos variables no implica, por s misma,
ninguna relacin de causalidad
La relacin entre dos variables cuantitativas queda representada mediante la lnea de
mejor ajuste, trazada a partir de la nube de puntos. Los principales componentes
elementales de una lnea de ajuste y, por lo tanto, de una correlacin, son la fuerza, el
sentido y la forma:

La fuerza extrema segn el caso, mide el grado en que la lnea representa a la


nube de puntos: si la nube es estrecha y alargada, se representa por una lnea recta,
lo que indica que la relacin es fuerte; si la nube de puntos tiene una tendencia
elptica o circular, la relacin es dbil.

El sentido mide la variacin de los valores de B con respecto a A: si al crecer los


valores de A lo hacen los de B, la relacin es directa (pendiente positiva); si al
crecer los valores de A disminuyen los de B, la relacin es inversa (pendiente
negativa).

La forma establece el tipo de lnea que define el mejor ajuste: la lnea recta,
la curva monotnica o la curva no monotnica

TIPOS DE CORRELACIN

La correlacin directa se da cuando al aumentar una de las variables la otra aumenta.


La recta correspondiente a la nube de puntos de la distribucin es una recta creciente.

La correlacin inversa se da cuando al aumentar una de las variables la otra disminuye.


La recta correspondiente a la nube de puntos de la distribucin es una recta decreciente.

La correlacin nula se da cuando no hay dependencia de ningn tipo entre las variables.
En este caso se dice que las variables son incorreladas y la nube de puntos tiene una
forma redondeada.

GRADO DE CORRELACIN

El grado de correlacin indica la proximidad que hay entre los puntos de la nube de
puntos. Se pueden dar tres tipos:
La correlacin ser fuerte cuanto ms cerca est los puntos de la recta.

La correlacin ser dbil cuanto ms separados estn los puntos de la recta.

Coeficiente de correlacin lineal

En una distribucin bidimensional puede ocurrir que las dos variables guarden algn
tipo de relacin entre s.
Por ejemplo, si se analiza la estatura y el peso de los alumnos de una clase es muy
posible que exista relacin entre ambas variables: mientras ms alto sea el alumno,
mayor ser su peso.
El coeficiente de correlacin lineal mide el grado de intensidad de esta posible relacin
entre las variables. Este coeficiente se aplica cuando la relacin que puede existir entre
las variables es lineal (es decir, si representramos en un grfico los pares de valores de
las dos variables la nube de puntos se aproximara a una recta).

No obstante, puede que exista una relacin que no sea lineal, sino exponencial,
parablica, etc. En estos casos, el coeficiente de correlacin lineal medira mal la
intensidad de la relacin las variables, por lo que convendra utilizar otro tipo de
coeficiente ms apropiado.
Para ver, por tanto, si se puede utilizar el coeficiente de correlacin lineal, lo mejor es
representar los pares de valores en un grfico y ver qu forma describe.
El coeficiente de correlacin lineal se calcula aplicando la siguiente frmula:

Es decir:
Numerador: se denomina covarianza y se calcula de la siguiente manera: en cada par de
valores (x,y) se multiplica la "x" menos su media, por la "y" menos su media. Se suma
el resultado obtenido de todos los pares de valores y este resultado se divide por el
tamao de la muestra.
Denominador se calcula el producto de las varianzas de "x" y de "y", y a este producto
se le calcula la raz cuadrada.
Los valores que puede tomar el coeficiente de correlacin "r" son: -1 < r < 1

Si "r" > 0, la correlacin lineal es positiva (si sube el valor de una variable sube el de la
otra). La correlacin es tanto ms fuerte cuanto ms se aproxime a 1.
Por ejemplo: altura y peso: los alumnos ms altos suelen pesar ms.
Si "r" < 0, la correlacin lineal es negativa (si sube el valor de una variable disminuye el
de la otra). La correlacin negativa es tanto ms fuerte cuanto ms se aproxime a -1.
Por ejemplo: peso y velocidad: los alumnos ms gordos suelen correr menos.
Si "r" = 0, no existe correlacin lineal entre las variables. Aunque podra existir otro tipo
de correlacin (parablica, exponencial, etc.)
De todos modos, aunque el valor de "r" fuera prximo a 1 o -1, tampoco esto quiere
decir obligatoriamente que existe una relacin de causa-efecto entre las dos variables,
ya que este resultado podra haberse debido al puro azar.
Ejemplo: vamos a calcular el coeficiente de correlacin de la siguiente serie de datos de
altura y peso de los alumnos de una clase:
Alumno
x
Alumno
1
Alumno
2
Alumno
3
Alumno
4
Alumno
5
Alumno
6
Alumno
7
Alumno
8
Alumno
9
Alumno
10

Estatura Peso Alumno


x
x
x
Alumno
1,25
32
11
Alumno
1,28
33
12
Alumno
1,27
34
13
Alumno
1,21
30
14
Alumno
1,22
32
15
Alumno
1,29
35
16
Alumno
1,30
34
17
Alumno
1,24
32
18
Alumno
1,27
32
19
Alumno
1,29
35
20

Aplicamos la frmula:

Estatura Peso Alumno


x
x
x
Alumno
1,25
33
21
Alumno
1,28
35
22
Alumno
1,27
34
23
Alumno
1,21
30
24
Alumno
1,22
33
25
Alumno
1,29
34
26
Alumno
1,30
35
27
Alumno
1,24
32
28
Alumno
1,27
33
29
Alumno
1,29
33
30

Estatura Peso
x
x
1,25

33

1,28

34

1,27

34

1,21

31

1,22

32

1,29

34

1,30

34

1,24

31

1,27

35

1,29

34

(1/30) * (0,826)
-------------------------------------------------------r=
-(((1/30)*(0,02568)) * ((1/30)*(51,366)))^(1/2)
Luego,
r=
X

0,719
x

Por lo tanto, la correlacin existente entre estas dos variables es elevada (0,7) y de signo
positivo.

CONCLUSION

La estadstica es una herramienta bsica en negocios y produccin. Es usada


para entender la variabilidad de sistemas de medicin, control de procesos (como en
control estadstico de procesos), para compilar datos y para tomar decisiones. En estas
aplicaciones es una herramienta clave, y probablemente la nica herramienta disponible.
La estadstica aplicada en la Ingeniera se hace mediante la rama de la estadstica que
busca implementar los procesos probabilsticos y estadsticos de anlisis e interpretacin
de datos o caractersticas de un conjunto de elementos al entorno industrial, a efectos de
ayudar en la toma de decisiones y en el control de los procesos industriales y
organizacionales.
La importancia de la estadstica en la ingeniera se basa en la participacin de
la industria en el aumento de la calidad, ya que las tcnicas estadsticas pueden
emplearse para describir y comprender la variabilidad, que es el resultado de cambios en
las condiciones bajo las que se hacen las observaciones. Las aplicaciones de la
estadstica dentro de la ingeniera actualmente han tomado un rpido y sostenido
incremento debido al poder del clculo computacional. Tambin permite a los
ingenieros interpretar una mejor y determinada informacin, hacindola ms entendible
e interesante.

S-ar putea să vă placă și