Sunteți pe pagina 1din 18

10. Describiendo relaciones entre dos variables A menudo nos va a interesar describir la relacin o asociacin entre dos variables.

Como siempre la metodologa va a depender del tipo de variable que queremos describir. Primero vamos a estudiar cmo describir la relacin entre dos variables cuantitativas y luego cmo describir la relacin entre dos variables cualitativas. 10.1 Describiendo relaciones entre dos variables cuantitativas Para mostrar graficamente la relacin entre dos variables cuantitativas usaremos un grfico llamado de dispersin o de xy.

Grfico de Dispersin de Notas en la Prueba 1 versus Notas en la Prueba Final Acumulativa de un curso de 25 alumnos de Estadstica en la UTAL
7

Estudiante 16 (6.2, 5.7)

Examen

1 1 2 3 4 5 6 7

Prueba 1

ID P1 Ex

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 1.7 3.8 5.1 5.6 5.0 5.7 2.1 3.7 3.8 4.1 3.4 4.4 6.8 5.1 4.3 6.2 5.9 5.4 4.1 6.2 5.2 4.6 4.9 5.9 5.5 3.5 3.2 3.5 5.2 4.9 3.7 3.6 4.5 4.0 3.6 4.4 3.3 5.5 3.9 4.6 5.7 4.3 4.1 5.0 3.8 4.4 4.0 4.5 3.4 4.5

a)

Encuentre el estudiante nmero 19 en el grfico

b) Suponga que otro estudiante tuvo un 5.0 en la primera prueba y un 5.5 en la prueba final acumulativa o Examen. Agregue este punto en el grfico. Al igual que cuando estudiamos los histogramas, tallos y hojas y otros grficos, ahora nos va interesar describir la forma del grfico. Especficamente en este caso particular de grficos de dispersin, nos va interesar la direccin, forma y grado de asociacin entre dos variables cuantitativas. Por direccin, diremos que dos variables estn asociadas positivamente cuando a mayor valor de una variable el valor de la otra variable tambin aumenta, como se muestra en la figura A. Dos variables estarn negativamente asociadas cuando a mayor valor de una variable el valor de la otra variable disminuye, como se muestra en la figura B. La forma de una asociacin puede ser adems lineal, curva, cuadrtica, estacional o cclica, o quizs no tenga una forma definida. En la figura A podemos decir que la relacin es lineal. En cambio en las figuras B y D parece no lineal. Por ltimo la figura C muestra que no hay asociacin. Por el grado de asociacin entendemos cun cerca estn los datos de una forma dada. Por ejemplo, en la figura B se ve que existe un alto grado de asociacin no lineal entre los datos. En este punto debemos tener cuidado, porque cambios de escala pueden cambiar la figura y nos pueden llevar a conclusiones errneas. Ms adelante discutiremos sobre una medida de asociacin llamada el coeficiente de correlacin.

Por ltimo, al mirar un grfico de dispersin nos van a interesar puntos que aparecen lejos o desviados del patrn general del grfico. En la figura A, el punto (21, 39) est lejos del resto de los puntos, sin embargo parece seguir el patrn general del grfico. Como resumen de las figuras tenemos lo siguiente: Figura A: muestra un grado de asociacin intermedio, positivo y lineal. Figura B: muestra un grado de asociacin fuerte, negativo y no lineal o curvo. Figura C: muestra que no hay asociacin entre las variables. Figura D: muestra un grado de asociacin muy fuerte y no lineal o cuadrtico.

Figure A: Positive Association


100 90 80 70 60 50 40 30 10 20 30 X 40 50
100 90 80 70 60 50 40 30 10

Figure B: Negative Association

20

30 X

40

50

Figure C: No Linear Association


Figure D: No Linear Association
100 90 80 70 60 50 40 30 10 20 30 40 50

100 90 80 70 60 50
40 30

10

20

30

40

50

Interprete el grfico de las notas anterior.

Correlacin: Cun fuerte es la relacin lineal? Definicin: El coeficiente de correlacin muestral r mide el grado de asociacin lineal entre dos variables cuantitativas. Describe la direccin de la asociacin lineal e indica cun cerca estn los puntos a una lnea recta en el diagrama de dispersin. El coeficiente de correlacin muestral Caractersticas: 1. 2. Rango: Signo:

r=

es un estimador puntual de la correlacin poblacional

(parmetro)

1 r + 1
El signo de coeficiente de correlacin indica la direccin de la asociacin La direccin ser negativa si el r est en el intervalo [-1 , 0) La direccin ser positiva si el r est en el intervalo (0 , +1]. La magnitud del coeficiente de correlacin indica el grado de la relacin lineal Si los datos estn linealmente asociados r = +1 o r = 1 indican una relacin lineal perfecta. Si r = 0 entonces no existe relacin lineal.

3.

Magnitud:

4.

Medida de asociacin: la correlacin slo mide el grado de asociacin lineal.

5. Unidad: La correlacin se calcula usando las dos variables cuantitativas estandarizadas. Por lo que r no tiene unidad y tampoco cambia si cambiamos la unidad de medida de x o y. La correlacin entre x e y es la misma que la correlacin entre y y x.
y
x x x x x x x x x

y
x x x x x x x x x x x x x x

x x x x

x x x

x x x

r 0. 8
Juntemos los grficos con r
Graph A: ___________ y

r 0. 2
y

r=0

Graph B: ___________

x Graph C: ___________ y Graph D: ___________ y

r=0

r = +1

r = -1

r = 0.6

r = -0.2

r = -0.8

r= 0.1
3

Cmo se calcula el coeficiente de correlacin r?:

r=
Ejemplo: Correlacin entre Test 1 y Test 2 Test 1 8 10 12 14 16 Test 2 9 13 14 15 19
20

x x y y 1 (n 1) s X sY

18

16

Test 2

14

12

10

8 8 10 12 14 16

Test 1

x = 12 s x = 3,16227766
Salida de SPSS:

y = 14 s y = 3,605551275

Correlaciones Test 2 Correlacin de Pearson Sig. (unilateral) N Test 2 Test 1 Test 2 Test 1 Test 2 Test 1 1.000 .965 . .004 5 5 Test 1 .965 1.000 .004 . 5 5

La Tabla adjunta presenta 4 bases de datos preparadas por el estadstico Frank Ascombe

x y1 x y2 x y3 x4 y4

10 8.04 10 9.14 10 7.46 8 6.58

8 6.95 8 8.14

13 7.58 13 8.74

9 11 14 6 4 12 7 5 8.81 8.33 9.96 7.24 4.26 10.84 4.82 5.68 9 11 8.77 9.26 14 6 8.1 6.13 4 3.1 12 7 5 9.13 7.26 4.74 12 7 5 8.15 6.42 5.73 8 8 19 7.91 6.89 12.5

8 13 6.77 12.74 8 5.76 8 7.71

9 11 14 6 4 7.11 7.81 8.84 6.08 5.39 8 8 8 8 8 8.84 8.47 7.04 5.25 5.56

Describa los coeficientes de correlacin adjuntos. Cules son sus conclusiones?


Correlaciones X X Correlacin de Pearson Sig. (bilateral) N Correlacin de Pearson Sig. (bilateral) N Correlacin de Pearson Sig. (bilateral) N Correlacin de Pearson Sig. (bilateral) N Correlacin de Pearson Sig. (bilateral) N Correlacin de Pearson Sig. (bilateral) N 1 . 11 .816** .002 11 .816** .002 11 .816** .002 11 -.400 .223 11 .003 .993 11 Y1 .816** .002 11 1 . 11 .750** .008 11 .469 .146 11 -.297 .375 11 .065 .849 11 Y2 .816** .002 11 .750** .008 11 1 . 11 .588 .057 11 -.451 .164 11 -.014 .966 11 Y3 .816** .002 11 .469 .146 11 .588 .057 11 1 . 11 -.289 .389 11 .023 .947 11 X4 -.400 .223 11 -.297 .375 11 -.451 .164 11 -.289 .389 11 1 . 11 .817** .002 11 Y4 .003 .993 11 .065 .849 11 -.014 .966 11 .023 .947 11 .817** .002 11 1 . 11

Y1

Y2

Y3

X4

Y4

**. La correlacin es significativa al nivel 0,01 (bilateral).

Ahora revise los grficos de dispersin. Mantiene sus conclusiones anteriores?

Anscombe, F. (1973) "Graphs in statistical analysis", The American Statistician, 27: 17-21. 5

11

10

10

Y1

4 2 4 6 8 10 12 14 16

Y2

3 2 4 6 8 10 12 14 16

14

14

12

12

10

10

Y3

4 2 4 6 8 10 12 14 16

Y4

4 6 8 10 12 14 16 18 20

X4

Regresin Lineal Simple Como ya hemos visto muchos estudios son diseados para investigar la asociacin entre dos o ms variables. Muchas veces intentamos relacionar una variable explicativa con una variable respuesta. Los datos que se usan para estudiar la relacin entre dos variables se llaman datos bivariados. Datos bivariados se obtienen cuando medimos ambas variables en el mismo individuo. Suponga que est interesado en estudiar la relacin entre las notas de la primera prueba y las notas finales. Entonces las notas en la primera prueba corresponderan a la variable explicativa o independiente x y las notas finales sera la variable respuesta o dependiente y. Estas dos variables son de tipo cuantitativo. Si el grfico de dispersin nos muestra una asociacin lineal entre dos variables de inters, entonces buscaremos una lnea recta que describa la relacin, la llamaremos recta de regresin. Un poco de historia El nombre de regresin deriva de los estudios de herencia de Galton, quien en 1886* publica la ley de la "regresin universal". En sus estudios Galton encontr que haba una relacin directa entre la estatura de padres e hijos. Sin embargo, el promedio de estatura de hijos de padres muy altos era inferior al de sus padres y, el de hijos de padres muy bajos, era superior al de los padres, regresando a una media poblacional.

Un ejemplo: se seleccion a 7 alumnas de la carrera de Psicologa del ao 2003 que nos dieron sus datos de estatura (en cms) y de peso (en kilos).
58

56

54

peso
52 50 48 154 156 158 160 162 164 estatura 166 168 170

Estatura Peso
*

155 48

157 48

159 51

162 55

165 53

168 55

169 57

Galton, F. (1886) "Regression Towards Mediocrity in Hereditary Stature," Journal of the Anthropological Institute, 15:246-263 (http://www.mugu.com/galton/essays/1880-1889/galton-1886-jaigi-regression-stature.pdf) 7

Ajustando una recta a los datos: Si queremos describir los datos con una recta tenemos que buscar la "mejor", porque no ser posible que la recta pase por todos los puntos. Ajustar una recta significa buscar la recta que pase lo ms cerca posible de todos los puntos. Ecuacin de la recta: Suponga que y es la variable respuesta (eje vertical) y relaciona a

y con x a travs de la ecuacin: y = a + bx En la ecuacin, b es la pendiente, cuanto cambia y cuando x

es la variable explicativa (eje horizontal). Una lnea recta

aumenta en una unidad. La pendiente puede tener signo positivo, negativo o valor cero. El nmero a es el intercepto, el valor de y cuando x se iguala a cero.

b positivo a b a 1 2 3

b negativo

b=0

b a b=0

Si queremos relacionar al peso con la estatura entonces la lnea recta ser: peso = a + b estatura La recta de regresin que resume el peso con la estatura es: peso = 45,276 + 0,603 estatura
58

56

54
peso

52

50

48 154 156 158 160 162 164 estatura 166 168 170

La figura muestra que la lnea ajusta ms o menos bien a los datos. La pendiente b = 0,603 nos dice que el peso de este grupo aumenta en 0,603 kilos por cada centmetro de estatura. La pendiente b es la tasa de cambio en la respuesta y cuando x cambia. La pendiente de la recta de regresin es una descripcin numrica importante de la relacin entre dos variables. El intercepto es a = 45,276 , que sera el peso si la estatura fuera cero. En este caso, el cero de estatura no tiene sentido, as es que tomaremos al intercepto slo como parte de la ecuacin.

Regresin de mnimos cuadrados Necesitamos una forma objetiva de obtener una recta y que esta pase por la mayora de los puntos. Definicin: La recta de regresin de mnimos cuadrados, dada por y = a $ cuadrados de las desviaciones verticales de los datos a la recta, donde

+ bx , es la recta que hace mnima la suma de los


a = y bx

b=

(x x )( y y ) (x x )
i i 2 i

Una forma fcil de calcular la pendiente es:

b=r

sY donde s y es la desviacin estndar de las respuestas y s x es la sX

desviacin estndar de la variable explicativa.

Test 2

Ejemplo: Test 1 vs Test 2 Test 1 Test 2 8 9 10 13 12 14 14 15 16 19

20

18

16

14

12

10

8 8 10 12 14 16

Test 1

Podemos usar los clculos de la correlacin para calcular la pendiente:

b=r

sy sx

= 0,96476

3,605551275 = 1,1 y 3,16227766

a = y bx = 14 1,112 = 0,8
Con estos valores podemos construir la recta de regresin de mnimos cuadrados: Interpretacin de los coeficientes de regresin: Pendiente:

y = 0,8 + 1,1x .

b = 1,1 ==>

cada punto en el test 1, significa un aumento de 1,1 puntos en el test 2 en promedio.

= 0,8 ==> Si asignamos el valor cero puntos al Test 1, el Test 2 tendra un valor de 0,8 puntos. Intercepto: Si usamos la recta de regresin, podemos predecir que un estudiante que tiene 15 puntos en el Test 1 tendr y = 0,8 + 1,1(15) = 17,3 puntos en el Test 2.

El mtodo de mnimos cuadrados fue publicado por el matemtico francs Adrien Legendre (1752-1833) en 1805. Este mtodo es una de las herramientas estadsticas ms usadas.

Definicin: Un residuo es la diferencia entre la respuesta observada, y , y la respuesta que predice la recta de regresin, de observaciones

(xi , yi ) , es decir, cada punto en el grfico de dispersin, genera un residuo:


residuo =

y . Cada par

y observado y estimado ei = yi yi = yi (a + bxi )


x en la ecuacin y calculando el valor y

El i-simo residuo =

Prediccin: Podemos usar la recta de regresin para prediccin substituyendo el valor de resultante. En el ejemplo de las estaturas: y = 45,276 + 0,603 x .

La exactitud de las predicciones de la recta de regresin depende de que tan dispersos estn las observaciones alrededor de la recta (ajuste). Extrapolacin Extrapolacin es el uso de la recta de regresin para predecir fuera del rango de valores de la variable explicativa x . Este tipo de predicciones son a menudo poco precisas. Por ejemplo los datos de peso y estatura fueron tomados de un grupo de alumnas de psicologa del ao 2003 que tenan entre 18 y 23 aos. Cuanto debe haber pesado una persona si al nacer midi 45 centmetros? "No deje que los clculos invadan su sentido comn". (Moore, 1989) Tarea: Calcular los residuos de la regresin, cunto vale la suma de los residuos? Los residuos muestran cun lejos estn los datos de la lnea de regresin ajustada, examinar los residuos nos ayuda a saber qu tan bien describe la recta a los datos. Los residuos que se generan a partir del mtodo de mnimos cuadrados tienen una propiedad bsica: el promedio de los residuos es siempre cero. Volvamos al ejercicio con las estaturas y pesos de 7 alumnas. La recta de regresin la podemos calcular usando el SPSS con la salida:
Coeficientes(a) Coeficientes no estandarizados B 1 (Constante) estatura a Variable dependiente: peso -45.276 .603 Error tp. 18.496 .114 .921 Coeficientes estandarizados Beta -2.448 5.285 .058 .003

Modelo

Sig.

Tambin podemos hacer un grfico con los residuos versus la variable explicativa. El grfico de los residuos magnifica las desviaciones de los datos a la recta, lo que ayuda a detectar problemas con el ajuste. Si la recta de regresin se ajusta bien a los datos no deberamos detectar ningn patrn en los residuos. La figura A adjunta muestra un grfico de residuos tpico, generalmente se dibuja la una lnea horizontal en el cero. La figura B en cambio muestra que la relacin entre x e y es no lineal, por lo tanto una lnea recta no es buena descripcin de la asociacin. La figura C muestra residuos en forma de embudo muestra que la variacin de y alrededor de x aumenta cuando x aumenta.

10

Figura A:

Figura B:

Figura C:

FISICA Los estudiantes de una clase de Fsica estn estudiando la cada libre para determinar la relacin entre la distancia desde que un objeto cae y el tiempo que demora en caer. Se muestra el grfico de dispersin de los datos obtenidos, y el grfico de residuos. Basado en estos grficos, le parece apropiado un modelo de regresin lineal?

11

Puntos influyentes y extremos Un punto extremo es una observacin que est lejos de la lnea recta, lo que produce un residuo grande, positivo o negativo. Un punto es influyente si al sacarlo produce un cambio notorio en la recta de regresin. Considere el siguiente conjunto de datos I y su grfico de dispersin correspondiente. x 1 1 2 2.5 3 3.5 4 4 4.5 5 5 5.5 2 y 1 2 1.5 2.5 3 3 3.5 4 4 5 6 6 6
6

Punto A

y
3 2 1

y
8

El punto A produce un residuo grande, parece ser un punto extremo.


Punto A

Sin embargo, no es influyente, ya que al sacarlo la recta de regresin no cambia mucho.

Lnea que incluye A


4 Y=0,958+0,81X 5*X,

Lnea sin A
Y=0,036+1,002X

0 0 1 2 3 4 5 6

12

Considere ahora el siguiente conjunto de datos II y su grfico de dispersin: x 1 1.5 2 2 2.5 2.5 3 3 3 3.5 4 7 y 3 2 3 4 1 2 1 2 3 2 1 7
7

Punto B

Lnea con B
Y=0,886+0,582X 8

Punto B
6

Punto B no produce un residuo grande. Sin embargo, el punto B es muy influyente ya que la sacarlo del anlisis la lnea recta cambia totalmente.

El Punto B es influyente, pero no extremo.


Y 4

Lnea sin B Y=3,694-0,594X

0 0 2 4 X 6 8

13

Inferencia en Regresin Lineal Simple

Modelo de regresin lineal simple:

Se tienen n observaciones de una variable explicativa x y de una variable respuesta y,

(x1 , y1 ), (x 2 , y 2 ), ..., (x n , y n )
yi = + xi + ei

el modelo estadstico de regresin lineal simple es:

donde

y = E (Y ) = + x

es la respuesta promedio para cada x.

representa el intercepto de la funcin lineal que usa todos los valores de la poblacin y

representa la pendiente de la funcin lineal que usa todos los valores de la poblacin. y

son parmetros

El modelo estadstico de regresin lineal simple asume que para cada valor de x, los valores de la respuesta y son normales con media (que depende de x) y desviacin estndar que no depende de x. Esta desviacin estndar es la desviacin estndar de todos los valores de y en la poblacin para un mismo valor de x. Estos supuestos se pueden resumir como: Para cada x,

Y ~ N ( y , )

donde

y = E (Y ) = + x

Podemos visualizar el modelo con la siguiente figura:

Los datos nos darn estimadores puntuales de los parmetros poblacionales.

14

Estimadores de los parmetros de regresin: El estimador de la respuesta media est dado por E (Y ) = y = a + bx El estimador del intercepto es: = a

El estimador de la pendiente es: = b El estimador de la desviacin estndar est dado por:

SCRes donde SCRes es la suma de cuadrados de los residuos n2

(y

yi )

= ei 2

El coeficiente de correlacin muestral r = es un estimador puntual de la correlacin poblacional

Probando la hiptesis acerca de la existencia de relacin lineal En el modelo de regresin lineal simple => E (Y ) = linealmente y la respuesta es una constante E(Y) = .

+ x . Si = 0 entonces las variables x e y no estn asociadas

E(Y) =

Es decir, conocer el valor de x no nos va a ayudar a conocer y. Para docimar la significancia de la relacin lineal realizamos el test de hiptesis

Ho: = 0 (la pendiente de la recta de regresin en la poblacin es cero) H1: 0

Existen hiptesis de una cola, donde H1:

< 0 o H1:

> 0, pero lo usual es hacer el test bilateral.

Para docimar la hiptesis podemos usar el test t:

t=
El estimador puntual de

estimador puntual valor hipottico error estndar del estimador

es b, y el valor hipottico es 0. El error estndar de b es:

EE (b) =

(x

x)

El estadstico para docimar la hiptesis acerca de la pendiente de la poblacin es:

t=

b0 ~ t (n 2) EE (b)

15

Revisemos la salida de SPSS:


Coeficientes(a) Coeficientes no estandarizados Coeficientes estandarizados Intervalo de confianza para B al 95% Lmite superior 7.596 1.651

Modelo

Sig.

(Constante) Test 1

B .800 1.100

Error tp. 2.135 .173

Beta .375 .965 6.351 .733 .008

Lmite inferior -5.996 .549

a Variable dependiente: Test 2

Verificando supuestos en la Regresin lineal simple 1. Examine el grfico de dispersin de y versus x para decidir si el modelo lineal parece razonable.

Se asume que la respuesta Y es Normal con media E(Y) = + x y desviacin estndar . Para cada x, Y es N(E(Y), ) donde E(Y) = + x El modelo que describe la respuesta Y es:

Y = + x + .
Los 's son los verdaderos trminos de error (que no observamos). Estos errores se suponen normales con media cero desviacin estndar . No podemos "ver" estos errores pero tenemos una estimacin de ellos mediante los residuos. 2. Examine los residuos para verificar los supuestos acerca del trmino del error. Los residuos deben ser una muestra aleatoria de una poblacin normal con media 0 y desviacin estndar .

Cuando examine los residuos verifique: a) que provienen de una muestra aleatoria:

Grafique los residuos versus x. El supuesto de que provienen de una muestra aleatoria ser razonable si el grfico muestra los puntos al azar, sin una forma definida.

A veces es posible detectar falta de independencia cuando los datos recogidos en el tiempo. Para verificar este supuesto grafique los residuos versus el tiempo y los puntos no deben mostrar una distribucin definida.

b) Normalidad Para verificar normalidad haga el histograma de los residuos, este debera aparecer como normal sin valores extremos si tenemos un nmero grande de observaciones. En el caso de tener pocas observaciones puede hacer un grfico de tallo y hoja y verificar que no haya observaciones extremas.

16

c) desviacin estndar comn (que no depende de x) El grfico de los residuos versus x, debe tener aproximadamente una banda del mismo ancho.

El grfico de abajo muestra evidencia de que la variabilidad en la respuesta tiende a aumentar cuando x aumenta. Ejemplo: Se conduce un experimento en 12 sujetos para analizar si la dosis de cierta droga (en ml) est relacionada con el tiempo de reaccin a un estmulo en segundos.

Droga (ml) Tiempo (segs)

1,0 1,5 2,0 2,5 3,0 3,5 4,0 4,5 5,0 5,5 6,0 6,5 1,0 0,8 1,8 1,4 2,1 1,8 2,2 3,0 2,75 3,0 4,1 4,9

Grfico de dispersin del tiempo de reaccin a estmulo versus dosis de droga:


5

Tiempo de reaccin (seg)

0 0 1 2 3 4 5 6 7

Dosis de droga (ml)

ANOVAb Modelo 1 Suma de cuadrados 14.430 1.923 16.352 gl 1 10 11 Media cuadrtica 14.430 .192 F 75.048 Sig. .000a

Regresin Residual Total

a. Variables predictoras: (Constante), Dosis de droga (ml) b. Variable dependiente: Tiempo de reaccin (seg)

17

.8

.6

.4

.2

Unstandardized Residual

-.0

-.2

-.4

-.6 0 1 2 3 4 5 6 7

Dosis de droga (ml)

Unstandardized Residual Stem-and-Leaf Plot Frequency 1.00 5.00 4.00 2.00 Stem width: Each leaf:
Notas: La asociacin entre una variable explicativa x y una variable respuesta y, aunque sea muy fuerte, no es por s sola evidencia de que los cambios en x causan cambios en y. Un coeficiente de correlacin es el resumen de la relacin presente en un grfico de dispersin. Conviene, pues, asegurarse mirando este grfico que el coeficiente es un buen resumen del mismo. Tratar de interpretar un coeficiente de correlacin sin haber visto previamente el grfico de las variables puede ser muy peligroso (Pea, Romo, p.129). Como hemos visto el coeficiente de correlacin es un resumen del grfico de dispersin entre dos variables. La recta de regresin es otra manera de resumir esta informacin, y su parmetro fundamental, la pendiente, est relacionado con el coeficiente de correlacin por la ecuacin: b = r sY . La diferencia entre regresin y correlacin es que en el clculo de sX la correlacin ambas variables se tratan simtricamente, mientras que en la regresin, no. En regresin se trata de prever la variable respuesta en funcin de los valores de la variable explicativa. En consecuencia, si cambiamos el papel de las variables cambiar tambin la ecuacin de regresin, porque la recta se adaptar a las unidades de la variable que se desea predecir (Pea, Romo, p.142).

Stem & -0 -0 0 0 . . . .

Leaf 5 12344 1123 57

1.00000 1 case(s)

18

S-ar putea să vă placă și