Sunteți pe pagina 1din 15

INTRODUCCION

En la siguiente investigación veremos lo que es el tema de estadística bidimensional,


variables bidimensionales, correlación y regresión lineal en el cual se explicara las
definiciones y algunos ejemplos ilustrados en imágenes para el mejor entendimiento del
lector, así como los diferentes tipos que existen y el porque necesitamos de la estadística
bidimensional en nuestras vidas.

1
INTRODUCCION ............................................................................................................ 1

ESTADÍSTICA BIDIMENSIONAL ................................................................................ 3

Distribuciones Condicionadas ...................................................................................... 6

Variables Bidimensionales ........................................................................................... 6

Correlación Estadística ................................................................................................. 7

El Coeficiente de Correlación ....................................................................................... 8

Regresión Lineal ......................................................................................................... 10

Regresión No Lineal ................................................................................................... 12

CONCLUSIONES .......................................................................................................... 14

Bibliografía ..................................................................................................................... 15

2
ESTADÍSTICA BIDIMENSIONAL

La estadística bidimensional es la que estudia los fenómenos en los que intervienen dos
variables conjuntamente, buscando relación que existe entre ambas; una variable
bidimensional se representa por un par (X, Y), donde X es la primera variable y toma los
valores x1,x2……xn e Y la segunda toma los valores, y1,y2….yn, los caracteres x,y se
denominan caracteres o variables marginales y pueden ser ambos cuantitativos, ambos
cualitativos o uno de cada tipo; a su vez, los caracteres puede ser variable estadísticas
tanto discretas como continuas.

La siguiente tabla muestra algunos ejemplos de variables bidimensionales:

(X,Y) x y
(sexo, color de pelo) Cualitativo cualitativo
(profesión, antigüedad en cualitativo cuantitativo
la empresa)
Peso, estatura Cuantitativo, continua Cuantitativo, continua

Sin embargo, al considerar dos variables de una población o muestra, no podemos afirmar
que se trata de una variable bidimensional porque la relación entre las variables puede ser
no estadística así, entre dos variables puede existir:

Construcciones de Tablas Bidimensionales

 Distribución de frecuencias bidimensional. Tabla de doble entrada.


Consideremos una población de n individuos sobre los que medimos
conjuntamente dos variables, x e y . cada individuo vendrá dado entonces por un
par de valores (X1;Y1).al igual que en el caso bidimensional, debemos buscar una
forma organizada de presentar las observaciones. Esto se consigue con las tablas
de doble entrada.

3
Supongamos que la variable x presenta k valores distintos y la variable y presenta
p valores distintas. La tabla de doble entrada se construye de la siguiente forma:

Tabla 1: tabla de doble entrada

Donde nij es la frecuencia absoluta del par (Xi,Yi), es decir, el número de


individos que presentan el valor xi en X e yi, en Y. La frecuencia relativa
correspondiente, fij, se calcula sin mas que dividir la frecuencia absoluta por el
total de observaciones N.

 Fij=nij/N

 Diagrama de dispersión. Nubes de puntos

Una manera sencilla y eficaz de estudiar la posible correlación entre variables es


recurrir a los diagramas de dispersión, que son representaciones gráficas en un
sistema de ejes cartesianos donde cada par (x, y) se representa por un punto. La
representación gráfica resultante se denomina diagrama de dispersión o nube de
puntos.
Podemos apuntar un par de ideas sobre la nube de puntos:
1.- En muchas ocasiones la nube de puntos sugiere la forma de la gráfica de alguna
función conocida: una recta, una parábola, una función exponencial. Esto significa
que puede existir alguna relación entre las variables. Si así ocurriese, se diría que
las variables están correlacionadas.
2.- Si la forma de la nube es estirada y sus puntos se pueden encerrar en una elipse,
la estrechez de esa elipse es un indicador de la fuerza de la correlación.

4
la

 Covarianza

es una medida de la asociación lineal existente entre dos variables, resume la información
contenida en el diagrama de dispersión. Presente la siguiente expresión:

Si la covarianza está muy próxima a cero, no existe relación entre las variables o si existe
es marcadamente no lineal, si es positiva, hay asociación lineal positiva, y si es negativa,
hay asociación lineal negativa. Sin embargo, como la covarianza depende de las unidades
de medida de las variables, no nos permite cuantificar el grado de asociación lineal ni
comparar la asociación existente entre distintos pares de variables. Para dar solución a
este problema se obtiene el coeficiente de correlación.

5
Distribuciones marginales

Existen de dos tipos las marginadas y las condicionadas.

 Distribuciones marginales.
Es cuando se estudia el comportamiento de cada una de las variables por
separado.
a. Distribución marginal de la variable X: anotamos los distintos
valores de la variable x junto con sus frecuencias.
Denotamos por ni. El número de individuos que presentan el valor
xi en X.
𝑝

∑ 𝑛𝑖𝑗 = 𝑛𝑖1 + ⋯ . 𝑛𝑖𝑝


𝑗=𝑖

Distribuciones Condicionadas
Son las distribuciones que se obtienen al fijar un valor en una de las variables y estudiar
las frecuencias correspondientes a la otra.

Por ejemplo, la distribución de la variable Y para el valor X=xi la distribución que se


obtienen es unidimensional.

 Frecuencia absoluta condicionada


Distribución de X condicionada a Y =yi, denotada por X/Y=yi , es la distribución
unidimensional de X sabiendo que Y ha tomado la modalidad yi para todo =
1……n. y representa el número de veces que se repite el valor xi teniendo en
cuenta solo aquellos calores en que Y=yi, asi nij=nif . esto también pasa en la
distribución condicionada en Y.

En las distribuciones condicionadas no se suelen utilizar las distribuciones


absolutas, puesto que, estas dependen del número de datos y el número de datos
será diferente para cada distribución, pues dependerá de la frecuencia del valor
que fijamos de la otra variable

Variables Bidimensionales
En muchas ocasiones no basta con estudiar la descripción de un fenómeno y sus
variaciones, es conveniente conocer a qué son debidas esas variaciones. Puede resultar

6
interesante e incluso necesario estudiar los cambios producidos en una variable en
relación con otras, o cómo influyen unas variables para que otra cambie. Cuando se
estudia varias variables se entra en el campo de la estadística multivariable asi entre las
variables puede existir:

 Dependencia funcional.
cuando es posible predecir con exactitud los valores de una variable a partir de los
de la otra, se dice que ambas variables están en relación funcional. Dada la
variable existirá una función:
f(x) tal que y=f(X), para cada valor de x se puede conocer el valor de y.
ejemplo:
a) La altura desde que cae un cuerpo y el tiempo que tarda en llegar al suelo
este sujeto a la ley de la gravedad, siempre tarda lo mismo en recorrer el
mismo espacio.
b) El precio de una tela es función del coste del metro de tela y número de
metros.
 Independencia o incorrelación.
son cuando las variables no tienen ninguna relación entre ellas y podemos
estudiarlas por separado:
a) La estatura y la nota de física
 Dependencia estadística o correlación.
Se dice que existe dependencia estadística cuando no podemos establecer una
relación funcional, pero tampoco podemos afirmar que existe interrelaciona si que
desde eso podemos afirmar.
Ejemplo:
a. El N° de cigarrillos consumidos y el riesgo de fallo cardiaco.

Correlación Estadística
Constituye una técnica estadística que nos indica si dos variables están relacionadas o no,
la correlación puede decir algo de la relación entre las variables la cual se utiliza para
entender:

7
1. Si la relación es positiva:

La correlación es positiva o directa cuando al aumentar una variable, se produce un


aumento en la otra, y al disminuir una, se produce una disminución en la otra. Esto
ocurre cuando la covarianza es positiva.

2. La correlación es positiva:
La correlación es negativa, o inversa, cuando al aumentar una variable, se produce
una disminución de la otra, y al disminuir una variable, se produce un aumento en
la otra. Esto ocurre, cuando la covarianza es negativa.

3. Ajuste perfecto
Cuando se da este caso, las variables X e Y guardan una −+ 1 relación funcional l
ineal exacta, y = f(x). Si Dxy = 1 la recta tiene pendiente positiva y si Dxy = -1
la recta tiene pendiente negativa.

El Coeficiente de Correlación
es una medida adimensional del grado de asociación lineal existente entre dos cariables.se
define como:

 Su signo viene determinado por el de la covarianza. Indicará por tanto si la


asociación expositiva o negativa, y vale 0 cuando la covarianza vale 0 (ausencia
de asociación lineal). −1 ≤ ρx,y ≤ 1. Valores próximos a -1 indican fuerte
asociación lineal negativa, valores próximos a 1 indican fuerte asociación lineal
positiva, y valores próximos a 0 indican ausencia de asociación lineal (pero puede
existir otro tipo de asociación, por ejemplo, exponencial, cuadrática, etc.).
 No se debe interpretar el coeficiente sin haber visto previamente el diagrama de
dispersión (podría por ejemplo haber algún dato atípico).
 Un coeficiente de correlación alto (en valor absoluto) indica que las variables
toman valores relacionados entre sí entre los elementos observados, pero no

8
permite concluir la existencia de ninguna relación de causalidad entre las
variables. Por ejemplo, suponed que se estudian conjuntamente las variables
X=No de matrimonios mensuales (en una ciudad) y Y ="Temperatura del mes",
obteniéndose un coeficiente de correlación de 0.7.Eso significa que, en efecto,
suele haber más matrimonios a medida que mejoran las temperaturas, pero esto
no implica que un aumento de matrimonios aumente la temperatura del mes, ni
que una ola de calor cause una avalancha de matrimonios.

 El coeficiente de correlación de Pearson

es una medida de la relación lineal entre dos variables aleatorias cuantitativas. A


diferencia de la covarianza, la correlación de Pearson es independiente de la
escala de medida de las variables. De manera menos formal, podemos definir el
coeficiente de correlación de Pearson como un índice que puede utilizarse para
medir el grado de relación de dos variables siempre y cuando ambas sean
cuantitativas.

 Coeficiente de correlación inversa.

Tipos de correlación. La correlación directa se da cuando al aumentar una de las


variables la otra aumenta. La recta correspondiente a la nube de puntos de la
distribución es una recta creciente. La correlación inversa se da cuando al
aumentar una de las variables la otra disminuye.

9
Regresión Lineal
En la sección anterior hemos visto cómo medir la asociación lineal entre dos variables X
eY . En caso de haber una buena asociación lineal entre ellas, nuestro objetivo será
encontrar la mejor recta que permita predecir valores en una de las variables a partir de la
otra. Hablamos de la mejor recta en el sentido de que los errores que podamos cometer al
predecir sean mínimos. Este es un problema de regresión lineal.
Supongamos que queremos encontrar la recta que mejor exprese el comportamiento de Y
en función de X con el fin de predecir con el mínimo error posible valores en Y para
valores dados en X. La recta será de la forma Y = aX +b, y debemos encontrar los valores
de a y b. Nuestras observaciones son (xi, yj) con frecuencias nij o fij , de forma que para
un valor observado xi tenemos un valor observado yj en Y, frente a un valor ˆ
yj = axi + b que predeciría la recta. El error cometido en la predicción en este caso vendría
dado por.
eij=yi_yi=yi-axi-b

10
 Recta de regresión: significado y cálculo de la recta de regresión de y sobre
x.
Dada una nube de puntos, la recta de regresión que mejor se ajuste a ella tendrá
una ecuación de la
forma y = Ax + B. Para obtener los valores de A y B, se impondrán dos
condiciones:
1.- Gravedad de la nube de puntos. Esta condición implica que la recta de
regresión pasa por
el punto ( , ) es decir su ecuación será . Sólo queda por determinar el valor de la
pendiente de la recta, A.

__
(x y) y − y = A( x – x)

2.- A cada punto Pi, de coordenadas (xi, yi), perteneciente a la nube de puntos, le
corresponde, en la recta, el punto Pi' de coordenadas (xi, y’i). Si se llamamos Di
a la diferencia yi -y’i, se impondrá la condición de que la suma de los cuadrados
de estas diferencias sea mínima.

 Interpolación y extrapolación.
La recta de regresión puede utilizarse para predecir el valor de Y que corresponde
a un determinado valor de X conocido. Se llama interpolación a la estimación de
un valor de la variable Y para un cierto valor de X, dentro de su recorrido. Se
llama extrapolación a la estimación de un valor de Y, para un cierto valor de X
fuera de su recorrido.
Ejemplo:
Realizamos un experimento que consiste en suministrar a cada una de 10 ratas una
dosis diaria de 1 mg, 2 mg, 3 mg, …, 10 mg, respectivamente, de un cierto fármaco
A, y calculamos el aumento de
peso de cada rata después de un mes.

11
Regresión No Lineal

Regresión no lineal es un método para encontrar un modelo no lineal para la relación


entre la variable dependiente y un conjunto de variables independientes. ... Definiendo W
= X**2, obtenemos un modelo lineal simple, Y = A + BW, que se puede estimar usando
métodos tradicionales como el procedimiento Regresión lineal.

 Análisis de regresión lineal.

El análisis de regresión lineal es una técnica estadística utilizada para estudiar la


relación entre variables. Se adapta a una amplia variedad de situaciones. ... En física
se utiliza para caracterizar la relación entre variables o para calibrar medidas.

existe diferentes tipos de regresión de acuerdo con sus parámetros entre ellos se
encuentran:

a) Regresión lineal simple.


la regresión lineal simple es la que trabaja solo con una variable
independiente y la otra dependiente.

12
b) Regresión lineal múltiple.

La regresión lineal permite trabajar con una variable a nivel de intervalo o


razón. De la misma manera, es posible analizar la relación entre dos o más
variables a través de ecuaciones, lo que se denomina regresión
múltiple o regresión lineal múltiple. Constantemente en la práctica de la
investigación estadística, se encuentran variables que de alguna manera están
relacionadas entre sí, por lo que es posible que una de las variables pueda
relacionarse matemáticamente en función de otra u otras variables.

13
CONCLUSIONES

 la estadística bidimensional nos ayuda a conocer la relación entre varias cosas


cualitativas y cuantitativas que hasta ahora no sabíamos este tipo de estadística que
tiene dos variables nos ayuda a comprender porque algunas cosas que usamos diarias
en nuestra vida esta relacionada una con otra.

14
Bibliografía

Ballabriga, J. C. (8 de mayo de 2018). Obtenido de matematicas.ies:


www.hezkuntza.ejgv.euskadi.eus/r43-573/es/

Ferrer, S. V. (8 de mayo de 2018). Obtenido de estadistica :


centros.edu.xunta.es/iesaslagoas/metodosesta/

Portocarrero, J. S. (8 de mayo de 2018). Obtenido de fao:


www.fao.org/docrep/003/x6845s/x6845s02.htm

Zamora, M. C. (2018). estadistica descriptiva y inferencial . chachapoyas: mosilera.

15

S-ar putea să vă placă și