Documente Academic
Documente Profesional
Documente Cultură
1
INTRODUCCION ............................................................................................................ 1
CONCLUSIONES .......................................................................................................... 14
Bibliografía ..................................................................................................................... 15
2
ESTADÍSTICA BIDIMENSIONAL
La estadística bidimensional es la que estudia los fenómenos en los que intervienen dos
variables conjuntamente, buscando relación que existe entre ambas; una variable
bidimensional se representa por un par (X, Y), donde X es la primera variable y toma los
valores x1,x2……xn e Y la segunda toma los valores, y1,y2….yn, los caracteres x,y se
denominan caracteres o variables marginales y pueden ser ambos cuantitativos, ambos
cualitativos o uno de cada tipo; a su vez, los caracteres puede ser variable estadísticas
tanto discretas como continuas.
(X,Y) x y
(sexo, color de pelo) Cualitativo cualitativo
(profesión, antigüedad en cualitativo cuantitativo
la empresa)
Peso, estatura Cuantitativo, continua Cuantitativo, continua
Sin embargo, al considerar dos variables de una población o muestra, no podemos afirmar
que se trata de una variable bidimensional porque la relación entre las variables puede ser
no estadística así, entre dos variables puede existir:
3
Supongamos que la variable x presenta k valores distintos y la variable y presenta
p valores distintas. La tabla de doble entrada se construye de la siguiente forma:
Fij=nij/N
4
la
Covarianza
es una medida de la asociación lineal existente entre dos variables, resume la información
contenida en el diagrama de dispersión. Presente la siguiente expresión:
Si la covarianza está muy próxima a cero, no existe relación entre las variables o si existe
es marcadamente no lineal, si es positiva, hay asociación lineal positiva, y si es negativa,
hay asociación lineal negativa. Sin embargo, como la covarianza depende de las unidades
de medida de las variables, no nos permite cuantificar el grado de asociación lineal ni
comparar la asociación existente entre distintos pares de variables. Para dar solución a
este problema se obtiene el coeficiente de correlación.
5
Distribuciones marginales
Distribuciones marginales.
Es cuando se estudia el comportamiento de cada una de las variables por
separado.
a. Distribución marginal de la variable X: anotamos los distintos
valores de la variable x junto con sus frecuencias.
Denotamos por ni. El número de individuos que presentan el valor
xi en X.
𝑝
Distribuciones Condicionadas
Son las distribuciones que se obtienen al fijar un valor en una de las variables y estudiar
las frecuencias correspondientes a la otra.
Variables Bidimensionales
En muchas ocasiones no basta con estudiar la descripción de un fenómeno y sus
variaciones, es conveniente conocer a qué son debidas esas variaciones. Puede resultar
6
interesante e incluso necesario estudiar los cambios producidos en una variable en
relación con otras, o cómo influyen unas variables para que otra cambie. Cuando se
estudia varias variables se entra en el campo de la estadística multivariable asi entre las
variables puede existir:
Dependencia funcional.
cuando es posible predecir con exactitud los valores de una variable a partir de los
de la otra, se dice que ambas variables están en relación funcional. Dada la
variable existirá una función:
f(x) tal que y=f(X), para cada valor de x se puede conocer el valor de y.
ejemplo:
a) La altura desde que cae un cuerpo y el tiempo que tarda en llegar al suelo
este sujeto a la ley de la gravedad, siempre tarda lo mismo en recorrer el
mismo espacio.
b) El precio de una tela es función del coste del metro de tela y número de
metros.
Independencia o incorrelación.
son cuando las variables no tienen ninguna relación entre ellas y podemos
estudiarlas por separado:
a) La estatura y la nota de física
Dependencia estadística o correlación.
Se dice que existe dependencia estadística cuando no podemos establecer una
relación funcional, pero tampoco podemos afirmar que existe interrelaciona si que
desde eso podemos afirmar.
Ejemplo:
a. El N° de cigarrillos consumidos y el riesgo de fallo cardiaco.
Correlación Estadística
Constituye una técnica estadística que nos indica si dos variables están relacionadas o no,
la correlación puede decir algo de la relación entre las variables la cual se utiliza para
entender:
7
1. Si la relación es positiva:
2. La correlación es positiva:
La correlación es negativa, o inversa, cuando al aumentar una variable, se produce
una disminución de la otra, y al disminuir una variable, se produce un aumento en
la otra. Esto ocurre, cuando la covarianza es negativa.
3. Ajuste perfecto
Cuando se da este caso, las variables X e Y guardan una −+ 1 relación funcional l
ineal exacta, y = f(x). Si Dxy = 1 la recta tiene pendiente positiva y si Dxy = -1
la recta tiene pendiente negativa.
El Coeficiente de Correlación
es una medida adimensional del grado de asociación lineal existente entre dos cariables.se
define como:
8
permite concluir la existencia de ninguna relación de causalidad entre las
variables. Por ejemplo, suponed que se estudian conjuntamente las variables
X=No de matrimonios mensuales (en una ciudad) y Y ="Temperatura del mes",
obteniéndose un coeficiente de correlación de 0.7.Eso significa que, en efecto,
suele haber más matrimonios a medida que mejoran las temperaturas, pero esto
no implica que un aumento de matrimonios aumente la temperatura del mes, ni
que una ola de calor cause una avalancha de matrimonios.
9
Regresión Lineal
En la sección anterior hemos visto cómo medir la asociación lineal entre dos variables X
eY . En caso de haber una buena asociación lineal entre ellas, nuestro objetivo será
encontrar la mejor recta que permita predecir valores en una de las variables a partir de la
otra. Hablamos de la mejor recta en el sentido de que los errores que podamos cometer al
predecir sean mínimos. Este es un problema de regresión lineal.
Supongamos que queremos encontrar la recta que mejor exprese el comportamiento de Y
en función de X con el fin de predecir con el mínimo error posible valores en Y para
valores dados en X. La recta será de la forma Y = aX +b, y debemos encontrar los valores
de a y b. Nuestras observaciones son (xi, yj) con frecuencias nij o fij , de forma que para
un valor observado xi tenemos un valor observado yj en Y, frente a un valor ˆ
yj = axi + b que predeciría la recta. El error cometido en la predicción en este caso vendría
dado por.
eij=yi_yi=yi-axi-b
10
Recta de regresión: significado y cálculo de la recta de regresión de y sobre
x.
Dada una nube de puntos, la recta de regresión que mejor se ajuste a ella tendrá
una ecuación de la
forma y = Ax + B. Para obtener los valores de A y B, se impondrán dos
condiciones:
1.- Gravedad de la nube de puntos. Esta condición implica que la recta de
regresión pasa por
el punto ( , ) es decir su ecuación será . Sólo queda por determinar el valor de la
pendiente de la recta, A.
__
(x y) y − y = A( x – x)
2.- A cada punto Pi, de coordenadas (xi, yi), perteneciente a la nube de puntos, le
corresponde, en la recta, el punto Pi' de coordenadas (xi, y’i). Si se llamamos Di
a la diferencia yi -y’i, se impondrá la condición de que la suma de los cuadrados
de estas diferencias sea mínima.
Interpolación y extrapolación.
La recta de regresión puede utilizarse para predecir el valor de Y que corresponde
a un determinado valor de X conocido. Se llama interpolación a la estimación de
un valor de la variable Y para un cierto valor de X, dentro de su recorrido. Se
llama extrapolación a la estimación de un valor de Y, para un cierto valor de X
fuera de su recorrido.
Ejemplo:
Realizamos un experimento que consiste en suministrar a cada una de 10 ratas una
dosis diaria de 1 mg, 2 mg, 3 mg, …, 10 mg, respectivamente, de un cierto fármaco
A, y calculamos el aumento de
peso de cada rata después de un mes.
11
Regresión No Lineal
existe diferentes tipos de regresión de acuerdo con sus parámetros entre ellos se
encuentran:
12
b) Regresión lineal múltiple.
13
CONCLUSIONES
14
Bibliografía
15