Documente Academic
Documente Profesional
Documente Cultură
SEMANA 1
ÍNDICE
NÚCLEO TEMÁTICO 1. PASOS PREVIOS AL ANÁLISIS CUANTITATIVO 2
Objetivos 2
Contenidos 2
A manera de introducción: La investigación y el uso de métodos cuantitativos 3
Paso Uno: La idea de investigación 4
Paso Dos: Delimitando los problemas 5
La pregunta de investigación 5
Paso Tres: La construcción del marco teórico 6
¿Cómo puedo buscar la literatura que necesito? 7
Ingreso a la consulta de referencias 7
Paso Cuatro: El alcance de la investigación 9
Paso Cinco: Las Hipótesis 10
Objetivos
• Identificar las distintas maneras de formulación de un problema
• Conocer las formas de elaboración del marco teórico de la investigación cuantitativa
• Conocer los distintos tipos de alcance investigativo
• Identificar las diferentes maneras de formulación de hipótesis
• Conocer los distintos tipos de diseño y sus formulaciones
• Conocer las formas de determinar una muestra.
Contenidos
• Planteamiento del problema cuantitativo
• Desarrollo de la perspectiva teórica
• Definición del alcance de la investigación
• Formulación de hipótesis
• Elección del diseño de investigación
• Selección de la muestra.
2
A MANERA DE INTRODUCCIÓN: LA INVESTIGACIÓN Y EL USO DE
MÉTODOS CUANTITATIVOS
La investigación científica, además, es clara en suponer unos métodos muy particulares para
entender o explicar estos hechos.Estos métodos tienen una historia en la evolución del
conocimiento humano y han tenido un efecto muy importante en el desarrollo de la psicología
como ciencia.
El investigador, en su proceso, debe partir del supuesto de existencia de dos realidades: una
realidad interna o subjetiva, conformada por lascreencias, suposiciones y
experienciasindividuales. Y una realidad externa, objetiva, e independiente de las creencias que
tengamos de ella. Esta segunda realidad supone la verdad de unos hechos en el mundo que son
susceptibles de conocerse, que son posibles de medir, de cuantificar y a los cuales se les
atribuye un valor numérico representativo en relación con sus propiedades.
Paso 8. Paso 5.
Paso 7. Selección Paso 6. Elección
Recolección de los Establecimiento de
de la muestra del diseño
datos las hipótesis
La investigación parte de una idea concreta, pero no todas las ideas son susceptibles de ser
investigadas. Las ideas que pueden surgirle al investigador deben suponer una comprensión
bastante amplia del estado de conocimiento, lo que supone que cuando se inicia el proceso de
investigación cuantitativa, el investigador conoce el marco sobre el que se sustentan sus ideas.
Este marco, generalmente, es susceptible de ser indagado, justamente porque, luego de esta
revisión, presenta falta o vacíos.
No investigar sobre algún tema que ya se haya estudiado a fondo. Una buena investigación es
aquella que invita a la novedad. Esto no quiere decir que sean necesariamente nuevas pero sí
que aporten elementos novedosos para en el estudio de fenómenos que pueden haber sido
estudiados con anterioridad.
Estructurar más formalmente la idea de investigación, lo que significa que una idea servirá para
la definición de un problema claro de indagación.
Hay que recordar que las buenas ideas deben intrigar, alentar y excitar al investigador de
manera personal. Las ideas también pueden ayudar a la construcción de un marco conceptual
del conocimiento y pueden servir para la solución de problemas. Pero quizá lo más importante
4
sobre las ideas es que estas, cuando son buenas, más que dar respuestas deben generar más
interrogantes.
La pregunta de investigación
Un problema de investigación supone una justificación o razón de ser del estudio, un propósito
definido. Las investigaciones no se pueden concebir como actos aislados. Generalmente
responden a una necesidad de conocimiento sobre un área que se desconoce.
Hernández, Fernández y Baptistas (2010), mencionan algunos criterios para evaluar la
importancia de una investigación, estos suponen:
Conveniencia. Entender para qué sirve.
Relevancia social. Qué proyección social tiene.
Implicaciones prácticas. Si resuelve algún problema real.
Valor teórico. Aporta al estado de conocimiento.
Utilidad metodológica. Crea un nuevo instrumento para recolectar datos.
Objetivos
Preguntas
Planteamiento
del problema
Evaluación Justificación
Viabilidad
6
¿Cómo puedo buscar la literatura que necesito?
http://poli.edu.co/content/biblioteca-virtual-0
Luego de digitar su usuario y contraseña, el estudiante podrá acceder a la base de datos. SciELO,
por ejemplo, es una de las pocas bases que también permite la búsqueda de textos en español.
El estudiante simplemente digita las palabras clave para la búsqueda y, además, puede filtra la
información a través de artículos completos o de resúmenes.
Hernández, Fernández y Baptista (2010), sugieren una serie de pasos para la construcción del
marco teórico que inicia con el ordenamiento de la información recopilada. En este sentido, los
autores sugieren el método de mapeo para organizar y edificar el marco teórico, que
simplemente consiste en la elaboración de un mapa conceptual con la información recopilada.
8
Subtema 1.1 Referencia 1
Tema 1
Toda investigación, a partir de sus estrategias, tiene unos alcances o puntos a dónde llegar.
Hernández, Fernández y Baptista (2010), definen estos alcances en cuatro tipos:
Exploratorios Descriptivos
Correlacionales Explicativo
Los alcances tienen la particularidad de continuarse en secuencia lógica, de tal manera que, el
alcance explicativo supondría que se ha hecho previamente la exploración, descripción y
correlación del fenómeno a explicar.
Las investigaciones con alcance correlacional tienen como finalidad conocer la relación o grado
de asociación que existe entre dos o más conceptos, categorías o variables en un contexto
particular. Este tipo de estudios, al evaluar el grado de asociación entre dos o más variables,
miden cada una de ellas y, después, cuantifican y analizan la supuestavinculación. En ese
sentido, este tipo de estudios permite conocer cómo se puede comportar un concepto o una
variable al conocer el comportamiento de otras variables vinculadas.
10
No todas las investigaciones tienen hipótesis. Particularmente, en la investigación cuantitativa
con alcance exploratorio, no se plantean hipótesis, y no siempre aparecerán en los estudios
descriptivos.
Según Hernández, Fernández y Baptista (2010), las hipótesis tienen ciertas características que
son:
1. Descriptivas
2. De diferencia de grupos
3. Correlaciónales
4. Causales.
Las hipótesis, en sentido general, son las guías de una investigación en el enfoque cuantitativo.
Además, facilitan la descripción o la explicación y nos permiten probar teorías y a su vez generar
teorías nuevas.
ÍNDICE
Contenidos
• Elección del diseño de investigación
• Selección de la muestra y recolección de la información.
Una parte central del proceso de la investigación cuantitativa tiene que ver con la definición del
diseño de la investigación.
Se entiende por diseño el plan o estrategia concebida para obtener la información que se
desea.
2
experimentales y experimentales puros. Los diseños no experimentales se dividirán en diseños
longitudinales y diseños transversales.
Según Hernández, Fernández y Baptista (2010), los experimentos tienen unos requisitos, que
son:
Los diseños pre-experimentales poseen menor control y validez interna al no poseer grupos de
comparación. Estos tipos de diseños sólo sirven como estudios exploratorios y sus resultados,
en todo caso, deben observarse con precaución.
Existen distintos tipos de diseños pre-experimentales, entre ellos encontramos los estudios de
caso con una sola medición, en donde, en un grupo o muestra, se manipula una variable y se
Los experimentos puros, por su parte, poseen un mayor grado de validez interna o control, ya
que conservan las características antes mencionadas: 1. Poseen grupos de comparación y 2.
Existe equivalencia entre los grupos.
Los tipos de diseños experimentales puros más importantes tienen que ver, al igual que los
diseños pre-experimentales, con las pre-pruebas y pos-pruebas, es así que podemos tener
diseños experimentales con pos-prueba únicamente y grupo control y diseños experimentales
con pre-pruebapos-prueba y grupo control. Adicionamos a estos los diseños experimentales
donde se hacen mediciones sucesivas de las variables dependientes. Este tipo de estudios,
llamados diseños experimentales de series cronológicas múltiples, se diferenciaran de los
diseños longitudinales, que veremos más adelante, por la manipulación que caracteriza a los
diseños experimentales.
Además de los diseños experimentales puros y los diseños pre-experimentales, existen también
los diseños cuasi-experimentales. Estos se diferenciarán de los diseños experimentales puros
porque la asignación de los miembros a los grupos no se hace de forma equivalente, sino de
manera intencional, dadas las características de la población objetivo. En ese sentido, este tipo
de diseños no tendría una asignación al azar de los grupos sino que estos estarían conformados
con anterioridad, lo que la teoría llama grupos intactos.
4
Además de los diseños experimentales también encontramos los diseños no experimentales. En
estos se observan los fenómenos tal cual acontecen en su contexto natural para luego ser
analizados. En estos diseños no hay manipulación intencional de las variables independientes.
Algunos investigadores recomiendan este tipo de estudios cuando las variables no pueden o no
deben ser manipuladas, o donde sea difícil su manipulación.
Dentro de los diseños no experimentales tenemos los diseños transversales y los diseños
longitudinales.
Los diseños de panel, por su parte, se centran en la observación y medición de los cambios de
un grupo específico de personas a lo largo del tiempo. Se diferenciarán del resto de diseños
debido a que los miembros de la muestra resultan ser los mismos en los distintos momentos de
medición.
Experimental
Puro
Cuasi-
experimental
Exploratorios
No Transversales
Experimentales Descriptivos
Correlacionales-causales
De tendencia
Longitudinales
De evolución de grupos
De panel
Hernández, Fernández y Baptista (2010), sugieren evitar tres errores que suelen presentarse al
seleccionar la muestra, estos son:
6
Tipos de muestra
La literatura refiere dos tipos de muestra: las probabilísticas y las no probabilísticas. En el
primer caso todos los miembros tienen la misma probabilidad de ser elegidos y se obtiene
definiendo las características de la población y el tamaño de la muestra por medio de una
selección aleatoria de las unidades de análisis u objetos de indagación, como individuos,
comunidades o situaciones.
Las formas externas, hacen referencia al uso de distintos mecanismos diferentes a la prueba en
sí para medir su confiabilidad. Estas las podríamos resumir en: 1. Test-pretest (cuando se aplica
la prueba en un momento y luego, pasado un tiempo prudente, se vuelve a aplicar para medir la
consistencia en las respuestas), 2. De forma alterna o paralela (es decir, cuando se usa una
segunda prueba que mida el mismo constructo y se comparan los resultados de ambas pruebas)
y 3. Entre evaluadores (cuando se comparan los puntajes dados por dos o más evaluadores a
una prueba u observación). En todos los casos, estas formas externas suponen el uso de un
coeficiente de correlación que permite estimar la asociación entre los puntajes comparados, por
ejemplo entre el primer test y el segundo test, o entre la prueba uno y la prueba dos. El
8
supuesto es que, si dos pruebas miden lo mismo, o si la prueba fue aplicada a las mismas
personas, la correlación entre los dos puntajes debe ser muy similar, de lo contrario el
instrumento posee poca consistencia. En la unidad cinco veremos cómo se usan estos
coeficientes y cómo se determinaría la confiabilidad en un instrumento cuando tenemos datos
de este tipo.
Volviendo al tema de los instrumentos, es de mencionar que existen distintas formas de estos
que van desde las pruebas hasta el cuestionario. Aquí señalaremos uno de ellos:
Cuestionario
Un cuestionario consiste en un conjunto de preguntas respecto de una o más variables a medir.
Como aspecto importante, este debe responder o ser congruente con el planteamiento del
problema e hipótesis.
Los cuestionarios pueden diseñarse a través de preguntas abiertas o cerradas. Cada una de ellas
tiene sus ventajas y desventajas, sin embargo, para la investigación cuantitativa se sugiere
utilizar cuestionarios de diseño cerrado, preferiblemente con preguntas tipo escala LIKERT que
va desde muy de acuerdo hasta muy en desacuerdo.
Es importante señalar que en todo momento el instrumento debe ir codificado, esto significa
que siempre se le debe atribuir un valor numérico a cada pregunta u opción de respuesta en el
Otras formas de recolección de información van desde las observaciones, pasando por las
pruebas estandarizadas e inventarios, hasta el uso de la información recopilada por otros
investigadores. En todo caso, el estudiante deberá seleccionar de forma adecuada el
instrumento que crea conveniente para responder a su problema de investigación. Este
instrumento debe estar acorde con los objetivos del estudio, el alcance, el diseño e, incluso, con
la muestra seleccionada.
10
Análisis Descriptivos y uso
SEMANA 3 Herramientas de Análisisde
ÍNDICE
Hemos visto hasta el momento los pasos que se siguen en una investigación. Partimos de una idea, un
problema y continuamos con la formulación de la investigación, su alcance, la definición de sus hipótesis,
su diseño hasta llegar a la muestra. Ahora continuaremos con el análisis, que corresponde al eje principal
de este MÓDULO. Llegado a este punto el estudiante debe tener en cuenta que el paso a seguir requiere
lo siguiente:
2
Base de datos
Aunque evidente, es importante recordar que los programas de análisis cuantitativo funcionan con
valores numéricos y no con texto. Es así que las bases que se elaboren para tal fin deben responder a
esta característica.
Es común ver en el estudiante que inicia su proceso, cometer el error de digitar en su base palabras
como hombre, mujer, Alto, Bajo, etc., Por ello, el primer paso en este proceso tiene que ver con la
categorización de las variables y la atribución numérica a las categorías de las variables. Así, el estudiante
debe atender a cuál es la variable medida y qué características tiene. Miremos el ejemplo de encabezado
de una prueba que aparece abajo. Allí aparecen los datos personales del paciente. Como se ve, la prueba
indaga por la variable sexo. La misma tiene a su vez dos categorías: hombre y mujer.
A estas categorías se le asigna un valor numérico que, si bien, en principio puede ser cualquiera, ya que
estos valores sólo funcionan como etiquetas, generalmente son del tipo 1 y 2. 1: hombre, 2: mujer. En
este punto se recomienda al estudiante evitar el uso del 0 como categoría. El 0 es útil sólo en los casos
en los que la categoría, por sí misma, designe una falta o carencia, por ejemplo, cuando tomamos cierto
tipo de respuestas dicótomas o de dos opciones, como sí y no, En estos caso el sí puede categorizarse
con un 1 y el no con un 0. En el resto de las situaciones se puede evitar estos usos.
NIVELES DE MEDIDA
Existen distintas formas de entender los valores numéricos en una base. En esta unidad utilizaremos la
división establecida por Coolican (2005) entre variables categóricas y variables medida.
Los datos que designan categorías (datos etiqueta) no tienen un valor real en cuanto magnitud, Así, en el
ejemplo anterior, puedo tener una variable que se llame tipo de investigador y atribuir, al primer tipo
(Clínico) el valor de 1, y al segundo (Investigador) el valor de 2.Es claro que con este tipo de dato
numérico no es posible ubicar puntos intermedios.
En las variables medida, por el contrario, los valores numéricos sí tienen un poder o magnitud como
número, ya que son el resultado, generalmente, de la aplicación de una escala (en el caso anterior la
variable Edad es un tipo de variable medida).
Existe un común acuerdo en los tipos de niveles de medida. Estos son: nominal, ordinal, de razón y de
intervalo (Hernández, Fernández y Baptista, 2010, p.214).
En el nivel de medida nominal hay una categorización de la variable y se asignan valores numéricos a
cada categoría. Así, por ejemplo, frente a la variable altura, pueden aparecer categorías como altos y
bajos, a las cuales les atribuyo un valor numérico cualquiera. El estudiante debe tener presente que las
categorías nominales denominan grupos separados.
Estos dos tipos de medida hacen parte de lo que se denomina variables discretas. Los valores numéricos
se asocian a la designación de grupos o conjunto de personas o cosas, por lo cual no hay un continuo
entre un valor numérico y otro (no es posible pensar, en una variable dicótoma, como género, un valor
intermedio como 1,5).
Los otros dos tipos de medida, de intervalo y de razón, hacen referencia a unidades o valores numéricos
medibles a través de escalas (de allí su denominación como escalares).
Las variables de intervalo, designan datos agrupados cuyo valor numérico tiene un peso o magnitud
como número. Es común en este tipo de variables que no exista un 0 absoluto.
Las variables de razón son escalas de tipo intervalo que tienen un cero absoluto y, en estas, los valores y
razones de los valores tienen sentido. Este tipo de variables es común en las mediciones de cantidades
físicas.
Todas estas aclaraciones son importantes antes de continuar con nuestra base. Como veremos, una
parte importante del trabajo inicial con SPSS consistirá en hacer una atribución adecuada del nivel de
medida de la variable, ya que de éste dependerá el tipo de análisis concreto que se haga. Continuamos
entonces con el reconocimiento del entorno de SPSS.
EL ENTORNO DE SPSS
SPSS (Statistical Package for the Social Science)funciona con un entorno parecido a otro programa muy
conocido, Excel. Una rejilla o matriz de filas y columnas donde se pueden disponer los datos o valores de
una investigación.
Se pueden descargar versiones de prueba gratuitas por catorce días desde la página del proveedor.
https://www.ibm.com/analytics/es/es/technology/spss/spss-trials.html Consultada el 11 de abril de
2013.
4
Pantallazo tomado de SPSS
En su entorno, SPSS tiene una gran ventaja ya que permite ingresar los datos (vista de datos) y, a su vez,
especificar las características de las variables (vista de variables). En la vista de datos se digitaran los
datos resultado del estudio, y en la de variables las distintas variables que hacen parte de la
investigación. Recomiendo al estudiante que no esté familiarizado con este tipo de programas una
primera visita a algunos tutoriales que están disponibles en la web para que su familiarización con la
plataforma.
http://www.youtube.com/watch?v=q-KLq-USjII
http://www.youtube.com/watch?v=Nht2bkxbD2w
http://www.youtube.com/watch?v=O0FC7Nh2A_4
Es importante, ya sea en el ingreso de los datos como en el importe de ellos desde Excel, la atribución
correcta de las características de los mismos. Es igualmente relevante definir los decimales, las etiquetas,
los valores de etiqueta y, de manera muy especial, como se había mencionado anteriormente, el nivel de
medida de cada variable.
A continuación he de explicar algunos requisitos básicos para el trabajo con la base a partir de un
ejemplo. Como se podrá dar cuenta el estudiante, las columnas designan los variables y las filas los
casos. Se recomienda dejar una columna como variable de identificación. Muy útil para identificar
cuestionarios si llegase a existir errores que hay que revisar en los formularios.
En éste ejemplo tengo 4 variables (Género, Var1, Var2, Var3) y un dato de ordenamiento (Identificación
– ID).
Para importar los datos el estudiante deberá seguir una pequeña secuencia en SPSS:
Comando: Archivo/Abrir/Datos
SPSS tratará de buscar los datos, por defecto, en la carpeta [Documentos] e identificará archivos con la
extensión *.sav. Los archivos de Excel tiene la extensión *.xls *.xlsx o *.xlsm. El estudiante deberá
cambiar la búsqueda en “Archivos de tipo”, de archivo de SPSS(*.sav) a Excel. Este paso tiene una ventaja
adicional y es que permite que SPSS importe los datos con los respectivos nombres de las variables.
La otra opción es copiar directamente la base y pegarla en la primera casilla. Sólo se copiaran los datos
numéricos. El estudiante deberá ajustar las variables en la vista de variables.
Este es el primer paso para el trabajo con SPSS.
SELECCIONAR CASOS
Uno de los primeros ejercicios que se puede hacer con una base es la selección de casos específicos para
el análisis sólo de los casos de interés. Para ello, es estudiante debe digitar el siguiente comando:
6
Pantallazo tomado de SPSS
SPSS tiene varias opciones para la selección de casos. Para este ejercicio sólo nos centraremos en la
selección de una categoría de una variable, por ejemplo, en la categoría hombre de la variable Género.
Para ello, en la ventana emergente debe seleccionar la opción [Si se satisface la condición] y oprimir la
pestaña [Si la op…] allí aparecerá el siguiente cuadro de dialogo lógico:
Se selecciona la variable de la cual se escogerá el caso o categoría y se utiliza el operador lógico para la
selección. Se debe tener presente cuál es el valor numérico que es tiqueta? al caso o categoría antes de
continuar. Para el caso de los hombres estos tienen el valor numérico de 1, por ello, si quisiera sólo
seleccionar a este grupo los comandos que puedo utilizar son:
[Género] < 2
[Género] <=1
[Género] = 1
[Género] ~= 2
Cualquiera de estas opciones lógicas debe permitirnos sólo la selección de la categoría 1 (hombre) de la
variable [Género]. Continuamos y aceptamos
Sabemos que hemos seleccionado casos específicos porque los casos no seleccionados aparecerán
tachados en las filas de la izquierda. Como se ve en el ejemplo:
8
Pantallazo tomado de SPSS
Estos son los comandos básicos para funcionar con SPSS. En la próxima semana se trabajará
propiamente el análisis descriptivo de las variables.
[ MÉTODOS CUANTITATIVOS
DE PSICOLOGÍA ]
MÉTODO CUANTITATIVO
ÍNDICE
Objetivos
-Aprender a analizar descriptivamente los datos numéricos
Contenido
- Distribuciones de frecuencia
- Medidas de tendencia central
- Medidas de variabilidad.
ANÁLISIS DESCRIPTIVOS
La estadística resulta útil para los análisis psicológicos ya que nos permite tanto describir como
inferir a partir de un conjunto de información recopilada. Existen dos tipos de análisis
estadísticos: los descriptivos y los inferenciales. En esta ocasión nos centraremos en los análisis
descriptivos.
2
Medidas de tendencia central
Existen distintas medidas de tendencia. Para este módulo hablaremos de tres de ellas: la media,
la mediana y la moda.
2, 5, 7, 8, 3, 7,
La mediana, informa del valor central de un conjunto de datos. El paso para calcularla depende
de que los datos estén ordenados ascendentemente. Así, en el ejemplo anterior, tendríamos
que ordenar los datos de la siguiente manera:
2, 3, 5, 7, 7, 8.
En este ejemplo no hay un solo dato en la mitad sino dos, el 5 y el 7. Cuando esto sucede
(porque el número de datos es par) se toman estos datos y se calcula su promedio (5 + 7 y se
divide por 2), lo cual da un valor de 6, como dato intermedio entre 5 y 7.
M:6
La moda, es el valor que más se repite, o el dato que tiene una mayor frecuencia de aparición.
En el ejemplo anterior es bastante fácil ver que el dato que más se repite es 7, por tanto, esta
sería la moda para este ejercicio.
m: 7
Medidas de dispersión
Para el investigador no sólo es importante conocer hacia dónde tienden los datos sino también
qué tan dispersos se encuentran unos de otros. Dentro de los tipos de medida de dispersión
encontramos:
R: (8 – 2) + 1 : 5.
∑(𝑥𝑖 − ∆𝑥)2
𝑆𝑥 = √
𝑛− 1
1. Calcular la media
2. Restar, a cada uno de los valores el valor de la media, para obtener la serie de
desviaciones
3. Calcular el cuadrado de cada resta
4. Sumar estas desviaciones
5. Dividir el resultado entre el número de datos menos 1
6. Calcular la raíz de éste valor.
2, 3, 5, 7, 7, 8
4
c. (-0.33)2 : 0,1
d. (1,67)2 : 2,78
e. (1,67)2 : 2,78
f. (2,67)2 : 7,12
4. Sumamos estos valores : 29,3
5. Dividimos este valor entre (6 – 1) :29,3/5 : 5,85
6. Calculamos la raíz de este valor : 2,42.
Para calcular la varianza simplemente elevamos este valor al cuadrado. S2: (2,42)2 :5,85
En nuestra base de SPSS vamos a insertar una variable que se llame ejemplo, desde la vista de
variables. Aquí debemos revisar que el tipo de medida aparezca como [Escalar].
Luego de ello vamos a ir a la vista de datos e incluiremos los valores utilizados en el ejercicio
anterior (2, 3, 5, 7, 7, 8). Debe quedarnos algo como esto:
6
Debe aparecernos un cuadro de diálogo como el que sigue:
Pasamos la variable ejemplo al cuadro que dice [Variables], ya sea arrastrando EJEMPLO o
simplemente seleccionando la variable y oprimiendo la flecha que aparece en la parte central
del cuadro de diálogo.
Luego de esto damos a la opción que dice [Estadísticos…]. Allí aparecerá un cuadro de diálogo
como el que sigue, desde donde nos es posible especificar las tendencias centrales que
queremos, al igual que las medidas de dispersión. Seleccionamos entonces, para este ejercicio,
la Media y la Desviación típica. Damos a [Continuar] y a [Aceptar].
8
SPSS abrirá una ventana de resultados como la que sigue, en donde informa del valor de la
media y la desviación.
Si comparamos, los valores arrojados por SPSS son exactos a los que arroja el análisis manual de
los datos.
Frecuencias y distribuciones
Es muy probable que, con un conjunto de datos, existan algunos de ellos que se repitan en cada
uno de los casos. La frecuencia hace referencia justamente a estas repeticiones de los valores
en los datos. La distribución es la forma en la cual los datos se encuentran repartidos en una
muestra o población. Generalmente es posible representarla con una curva de distribución o
curva normal (de la cuál hablaremos más adelante).
Vamos a volver a la pequeña base que hemos elaborado en SPSS anteriormente con los datos
de la tabla que aparece al inicio de la cartilla (base que tiene una variable de género y 3
variables escalares VAR1, VAR2 y VAR3, y que se encuentra anexa a este módulo).
Al hacer esto, verifico que el cuadro de dialogo tenga seleccionada la opción Mostrar tablas de
frecuencias, como aparece abajo.
10
Luego, selecciono las tres variables escalares: VAR1, VAR2 y VAR 3 y las paso al cuadro
[Variables:]. Selecciono el botón que dice [Estadístico…] Debemos recordemos que, al ser
escalares, es posible realizar mediciones de tendencia central y dispersión sin problemas. De
preferencia vamos a tomar la media, la mediana y la moda como medidas de tendencia central,
y de dispersión la desviación típica, la varianza y el rango. Luego de esto damos a [Aceptar].
Debe aparecernos en la ventana de resultados un cuadro como este:
Allí, vemos que los valores 21, 30, 45 y 50 se repiten dos veces en la VAR3. Este cuadro nos
muestra, en las columnas, tanto los valores de frecuencia o repetición de los datos como el
valor de porcentaje, que representa el porcentaje de cada dato respecto del total de datos
(100%).
Podemos resumir estos gráficos en: gráfica de barras, barras agrupadas, gráficas lineales,
histogramas, diagramas de cajas y bigotes y diagramas de dispersión.
Para entender cómo se grafican estos datos vamos a volver a nuestra base anterior en SPSS
(base que tiene una variable de género y 3 variables escalares VAR1, VAR2 y VAR3).
En esta ocasión vamos a seleccionar el botón que dice [Gráficos…]. Aquí aparecerán tres
opciones: 1. Gráfico de barras, 2. De sectores y3. Histograma (el cual permite la opción de
mostrar curva normal).
Además, este paso permite decidir si trabajar con frecuencias, como valores del gráfico, o con
porcentajes. Generalmente esta decisión depende del estudio y de lo que se quiera mostrar en
él, pero, en muchas ocasiones resulta útil presentar los datos en términos de porcentajes por
cuanto permite comparar una categoría respecto a otra de un total de datos (100%).
Los gráficos de barras, además, permiten observar en detalle la distribución de los datos, por
ello no es recomendable utilizar variables escalares para este tipo de gráficos, ya que este
ejercicio me arrojaría una barra por cada dato, los cuales son generalmente extensos en las
variables escalares, hecho que no aportaría información relevante para el estudio.
Vamos a utilizar para este ejercicio la variable Género del ejemplo anterior. Un aspecto
importante a tener en cuenta es que esta variable es nominal. Así, no pueden realizarse
medidas de dispersión o medidas de tendencia central. Algunos autores sugieren cálculo de
modas como única alternativa para este tipo de nivel de medida. Por ello, si se ha realizado un
análisis previo de estas estadísticas, es importante quitar la selección de las medidas de
tendencia para luego sí continuar con los análisis.
Otro elemento importante para proceder es la atribución de las categorías de las variables. Para
ello hemos de ir a la vista de variables. Si seleccionamos la casilla de valores, aparecerán unos
puntos suspensivos […] le damos a esta opción y aparecerá el siguiente cuadro de diálogo de
etiquetas de valor:
12
Fuente. Archivo personal
En esta parte hay que asignar valores a las categorías. Como mencionaba arriba, la mejor opción
es asignar el valor de 1 a la categoría de hombres y 2 a las mujeres (aunque no hay un orden
preestablecido para esto). Lo importante es que se tenga en cuenta esta categoría cuando se
pasen los datos a la variable o utilizar las categorías preestablecidas cuando se coloquen las
etiquetas. Colocamos en Valor:1 y en Etiqueta: Hombres, y damos a la opción de añadir. Luego
colocamos el valor: 2 y en etiqueta Mujeres y damos añadir y aceptar.
Gráficas lineales
Este tipo de gráficas me permite describe el progreso de algún grupo. Me permite mostrar
evoluciones o cambios a lo largo del tiempo. En este caso es común representar, en el eje “x”, el
valor tiempo y, en el eje “y”, los cambios asociados a la variable en ese sentido.
Vamos a continuar con nuestra base para ejemplificar este tipo de gráfico, pero vamos a hacerlo
desde otra opción de SPSS, utilizando el comando siguiente:
14
Fuente. Archivo personal
En la opción [Líneas] que aparece en la imagen en gris, me aparecerán dos cuadros. Selecciono
el primero (por tratarse sólo de un conjunto de datos a visualizar) y arrastro la imagen en el
cuadro que dice arrastre hasta aquí un gráfico…. Luego de eso el programa nos presentará un
cuadro con puntos en el eje “x” y en el eje “y”. Como el eje x indica la medida de tiempo, vamos
a seleccionar, del conjunto de variables, la variable ID, ya que esta es una variable de orden de
secuencia. En el eje “y” estaría la variable de cambio, que para este pequeño ejemplo será la
Histograma
El histograma permite visualizar un conjunto de barras agrupadas que representa, cada barra,
los valores por cada categoría. El total de todas las áreas de las columnas representarán a toda
la muestra. Es importante notar que las barras, en el histograma, sólo pueden representar
frecuencias, a diferencia del gráfico de barras en donde era posible representar también
porcentajes.
16
SPSS permite además trazar una curva para el histograma. Esta curva llega a ser importante,
como veremos más adelante, para entender si la distribución de los datos es o no normal.
Diagrama de dispersión
Este tipo de grafico permite visualizar, en un plano x-y, los puntos de relación de dos variables
(x1, y1), (x2, y2),…, (xn, yn). Generándose un cuadro de puntos donde es posible ver la tendencia o
dispersión de los datos. Tal gráfico, como veremos más adelante, resulta muy útil para entender
las correlaciones.
18
Fuente. Archivo personal
Distribución normal
Otra forma importante de describir los datos tiene que ver con la distribución normal de los
mismos. Generalmente esta se realiza a través de la curva que vimos al hacer el histograma,
llamada también curva gaussiana. Esta curva representa la distribución y tiene las siguientes
características:
Ahora bien, existen diferentes formas de dividir esta curva. Estas divisiones tendrán el propósito
de ubicar, en porcentaje y en dispersión, un dato específico.
En el ejemplo inicial:
2, 3, 5, 7, 7, 8.
La media tiene un valor de 5,33, y el valor de desviación es de 2,42 (calculados, ambos, más
arriba). Entre la media y el valor de desviación habrán 2,91 unidades (calculado al restar a 5,33
2,42). Estas podrán representar nuestra primera unidad 1 (1: 2,91). Tanto por encima como por
debajo de la media. Es decir que de 2,42 a 5,33 habrá una primera unidad (con un valor de
rango de 2,91). A este tipo de unidad estándar d conversión se le denominará puntuación z.
Puntuaciones z
Así, la puntuación z o puntaje z es la puntuación que representa el valor estándar de conversión
a partir de la desviación, es decir, es el número de desviaciones estándar a las que está una
puntuación de la media. La fórmula para calcularla es la que sigue:
𝑥𝑖 − ∆𝑥
𝑧=
𝑆𝑥
Siendo Sx la desviación estándar.
Como les venía diciendo, esta es útil como medida de identificación o ubicación de unos datos
respecto a un conjunto de datos ya que, a más unidades o puntajes z esté un dato, sabremos
que ese dato estará más alejado de la media.
Con esta información damos por finalizada la Unidad Dos y la presentación de los análisis
descriptivos. En una próxima cartilla hablaremos de los análisis inferenciales y las formas de
proceder con ellos desde SPSS.
20
Análisis Inferenciales:
Las Pruebas Paramétricas
SEMANA
5
INDICE
NÚCLEO TEMÁTICO TRES. ANÁLISIS INFERENCIALES: LAS PRUEBAS PARAMÉTRICAS 2
Objetivos 2
Contenido 2
SIGNIFICANCIA Y PRUEBA DE HIPÓTESIS 2
PROBABILIDAD 3
NIVEL DE SIGNIFICANCIA 4
PRUEBAS PARAMÉTRICAS 4
CORRELACIONES 4
LA MEDICIÓN DE LA CORRELACIÓN 5
Gráficas de correlación 6
LÍNEA DE REGRESIÓN 7
COEFICIENTES DE CORRELACIÓN 7
CÁLCULO DE LA CORRELACIÓN CON SPSS 8
INFORME DE RESULTADOS 11
En la unidad uno hablamos de las hipótesis. Recordemos que estas son suposiciones
de respuesta a la pregunta planteada. Así, la hipótesis nula es la suposición sobre la población
de la cual se extrajo la muestra o muestras y en la cual se espera un comportamiento
homogéneo frente a una variable indagada. Esto supone que dos muestras o frecuencias
2 [ POLITÉCNICO GRANCOLOMBIANO]
tendrían comportamientos similares o parecidos, o que no difieren dos poblaciones de las que
se extrajo muestras diferentes.
H0: f1 : f2
El otro tipo de hipótesis se conoce como hipótesis alternativa. Esta se define simplemente
como todo lo que no es la hipótesis nula. En ese sentido, la hipótesis alternativa supone que la
frecuencia en el primer momento o en un primer grupo es distinta a la frecuencia en un
segundo momento o en un segundo grupo.
H1: f1 ≠ f2
Llamamos prueba de significancia a la elección de una de estas dos opciones: ir con la hipótesis
alterna o ir con la hipótesis nula.
PROBABILIDAD
Para calcular la probabilidad es necesario especificar el suceso y también identificar todos los
demás sucesos en la población de la que proviene. Por ejemplo, si desea conocer la
probabilidad de sacar 1 en un lanzamiento de dado, el suceso en cuestión es obtener un 1 y el
total de los posibles sucesos es 6.
La probabilidad se denota por medio de una p y se mide en valores decimales en una escala que
va de 0 (no posible) a 1 (debe suceder).
Cuando se trata de probar una diferencia en busca de significancia se dan dos pasos:
1. Se supone una hipótesis nula apropiada (H0)
2. Se calcula la probabilidad de que la diferencia ocurra en H0.
Recordemos que la hipótesis nula siempre es una afirmación sobre una o más poblaciones. Es lo
que sería verdadero con respecto al mundo si el resultado que se obtiene fuera una mera
coincidencia.
NIVEL DE SIGNIFICANCIA
Existe por tanto un nivel de probabilidad de rechazo que se denomina nivel de significancia. La
H0 se rechaza cuando la probabilidad de que ocurra un efecto de dicha hipótesis es igual o
menor que 0,05. Es en torno al nivel de probabilidad de 0,05 (1 de 20, o 5%) que se rechaza la
posibilidad de que algo suceda por simple o mera coincidencia.
PRUEBAS PARAMÉTRICAS
Existen distintos tipos de análisis estadísticos que dependen, en esencia, de tres condiciones:
1. De que las variables sean escalares (de razón o de intervalo, en donde el valor numérico
revela una magnitud),
2. De que la distribución de los datos sea normal y
3. De que la varianza sea homogénea (no hay una amplia dispersión de los datos).
Cuando estas tres condiciones se cumplen podemos proceder con confianza a realizar una
prueba paramétrica. Por oposición, cuando no se cumple alguna de estas tres condiciones, las
pruebas a utilizar son no paramétricas. Vamos a iniciar con una forma de prueba paramétrica
que se denomina coeficiente de correlación de Pearson.
CORRELACIONES
Un tipo de análisis muy común es aquel que trata de establecer la posible relación de cambio
entre variables. Existen dos posibles direcciones de este cambio, produciéndose lo que se
conoce como correlaciones positivas y negativas.
Cuando una variable aumenta y la otra también, se habla de correlaciones positivas. Por
ejemplo, se puede establecer el valor de una relación positiva entre en nivel de inteligencia y el
rendimiento académico en la universidad si se supone que mientras el nivel de inteligencia de
una persona aumenta igualmente el rendimiento académico de esa persona.
4 [ POLITÉCNICO GRANCOLOMBIANO]
Las correlaciones negativas suponen que, mientras una variable aumenta, la otra disminuye. Por
ejemplo, se pueden presumir relaciones negativas entre la edad y la memoria, suponiendo que
la variable memoria disminuye mientras la edad aumenta.
Un paso importante para el trabajo con los análisis, y en particular con las correlaciones es saber
con claridad cómo se miden las variables; para ello el estudiante debe recordar que todos los
análisis cuantitativos suponen una operacionalización de las variables, es decir, una definición
de cómo se mide la variable. También es importante saber que los casos en una correlación
pueden estar pareados, por ejemplo, cuando se comparan dos individuos o el mismo individuo
en dos momentos (en estos casos habrá siempre habrá un par). pero también es factible que los
casos sean unidades más abstractas, como escuelas. En resumen, es importante recordar cuál
es la unidad de análisis que se está trabajando.
LA MEDICIÓN DE LA CORRELACIÓN
Es importante notar que las correlaciones arrojan dos tipos de información. Una referente a la
fuerza de la relación (cuando digo que hay o no relación, midiéndose así la vinculación de dos
variables) y otra referente a lo significativa de esa relación.
Coolican (2005) señala que el cálculo de la correlación es una medida descriptiva mientras que
el cálculo de la significancia de esa relación es una medida inferencial, ya que indica la
probabilidad de encontrar el nivel mencionado de vinculación entre las muestras, si no la hay,
de manera verdadera dentro de la población. Así, la fuerza de la relación entre dos variables es
el grado al cual una variable tiende a variar con la otra.
La escala de esta fuerza va desde -1 (negativa perfecta) hasta +1 (postitiva perfecta). Un valor de
0 indica que no existe relación. En ese sentido es claro que no es posible obtener un valor por
encima de 1 o por debajo de -1. El valor para expresar esta relación se conoce como coeficiente
de correlación y se expresa, generalmente, con una r.
Es importante señalar que correlación negativa no significa que no haya correlación, como a
veces se supone. Correlación negativa sólo significa que dos variables se relacionan de manera
inversa. En este punto cabe señalar que la correlación es una medida de relación gradual entre
variables. Esto significa que la relación de cambio entre dos variables no es de todo y nada.
Generalmente se utilizan las gráficas de dispersión como medida de correlación. Esto supone un
hecho interesante: a mayor dispersión menor correlación y viceversa. Es decir, cuando los
valores pareados en un diagrama x-y no se encuentran dispersos de manera aleatoria sino que
conforman un patrón consistente, es posible encontrar una señal de una fuerza de relación.
6 [ POLITÉCNICO GRANCOLOMBIANO]
LÍNEA DE REGRESIÓN
La línea de regresión es la línea de mejor concordancia o de ajuste entre puntos que
se hallan sobre una gráfica de dispersión. Esta línea permitirá entender la tendencia del
conjunto de datos pareados.
COEFICIENTES DE CORRELACIÓN
Existen dos coeficientes de correlación que se utilizan con mayor frecuencia: el de correlación
de Pearson y el de Spearman. El primero se utiliza como prueba paramétrica y el segundo como
prueba no paramétrica. En esta unidad trabajaremos sólo con el coeficiente de Pearson.
Al tratarse de una prueba paramétrica se deben recordar los criterios para la misma: 1.
Normalidad, 2. Variabilidad, y 3. Tipo de medida. El coeficiente de correlación se obtiene al
multiplicar las puntuaciones z de cada persona en cuanto a las dos variables que se están
correlacionando y encontrar el promedio de estos resultados. En ese sentido, para calcular la r
de Pearson se sigue la siguiente formula:
∑ 𝑍𝑥𝑍𝑦
𝑟 =
𝑛−1
Existen otros procedimientos un poco más complejos para calcular el valor de r, basados en las
desviaciones estándar. En esta unidad sólo utilizaremos la ecuación antes mencionada. Vamos a
ilustrar la misma con un ejemplo. Tenemos dos puntuaciones en dos pruebas de lectura y se
desea saber si existe alguna relación entre estas dos pruebas. Llamaremos a la puntuación en la
prueba 1 Px y a la puntuación en la prueba 2 Py.
8 [ POLITÉCNICO GRANCOLOMBIANO]
Fuente. Elaboración propia
Digitamos los datos en las dos columnas en la vista de datos.
Luego, se pasan las dos variables Px y Py al cuadro de [Variables]. Se debe verificar que el
coeficiente de correlación seleccionado sea el de Pearson. En la pestaña de opciones es
recomendable señalar las medias y desviaciones estándar. Se procede a [Aceptar].
10 [ POLITÉCNICO GRANCOLOMBIANO]
El análisis debe darnos un resultado como el que sigue:
El cuadro en rojo señala el valor de la fuerza de la correlación. Mire que este valor es idéntico al
conseguido de forma manual. Como recordarán, el valor máximo de correlación (para indicar
una correlación perfecta) es de 1. Aquí, el valor de 0,93 se aproxima a este valor, lo que indica
que hay una alta relación entre los puntajes de las dos pruebas, lo esperado si se considera que
ambas pruebas miden el mismo constructo.
No existe un criterio estándar o único para decir si hay o no correlación. Como mencionaba
anteriormente, la correlación es una medida gradual de relación. Sin embargo, algunos autores
que aplican estos conceptos a la psicología señalan como posible criterio para establecer
correlación cuando el valor de la fuerza de la relación supera los 0,66. Es decir, cualquier valor
por debajo de este se descarta como correlación, y cualquier valor por encima (entre 0,66 y 1)
señala una posible relación entre las variables.
INFORME DE RESULTADOS
Si bien la fuerza de la relación es importante, recordemos que este es sólo un valor descriptivo
del cambio. Es necesario, para el reporte del análisis, considerar el valor de la significancia de la
relación. Recordemos que el valor de la significancia es importante sólo cuando cae en el 5%, es
decir, cuando es menor a 0,05.
Note que el informe del análisis indica una correlación y, además, señala si fue o no significativa.
En el caso de no existir correlación, el informe debe señalarlo. De forma similar se debe indicar
que no hay significancia, generalmente expresado esto como p>0,05.
12 [ POLITÉCNICO GRANCOLOMBIANO]
Análisis Inferenciales:
Las Pruebas Paramétricas
SEMANA
6
INDICE
2 [ POLITÉCNICO GRANCOLOMBIANO]
Puede resultar interesante saber, por ejemplo, si los resultados de la evaluación aplicada a una
persona en un momento dado, antes de una intervención, difieren significativamente de los
resultados de la misma persona en un momento posterior a la intervención. Si se encuentran
diferencias se puede establecer que la intervención generó un cambio en esa persona.
También puede resultar interesante, por ejemplo, saber si dos grupos de personas, que se
diferencian por alguna variable categórica, como su género, tienen diferencias significativas en
los puntajes frente a una prueba específica, como una de ansiedad o de estrés laboral. En
definitiva, dentro de los análisis, en las investigaciones y en particular en las investigaciones con
alcance descriptivo-comparativo, es común encontrar la posibilidad de comparar, bien a un
mismo sujeto, como en el primer caso, o a diferentes sujetos, como en el segundo. En la
primera situación hablaremos de pruebas para muestras relacionadas y en la segunda, de
pruebas para muestras independientes. Estas pruebas reciben el nombre de pruebas t, y serán
presentadas a continuación.
Primero, hay que recordar que toda prueba inferencial es, en esencia, una prueba de hipótesis
nula. En ese sentido, la prueba inferencial va calcular la probabilidad de que el resultado ocurra
debido al azar o, por el contrario, por efecto de la variable independiente. La hipótesis nula
informa del estado de la variable cuando, se supone, no hay ningún efecto.
Cuando, además, esperamos que los resultados tomen una dirección específica, por ejemplo,
que las personas mejoren de manera importante después de una intervención, decimos que la
aproximación a la prueba es direccional ya que estamos indicando una posible dirección a
tomar por los datos recabados (que el puntaje del tratamiento 1 sea mayor que el puntaje del
tratamiento 2, o que los hombres tengan una puntuación mayor en ansiedad que las mujeres).
Por el contrario, en los modelos no direccionales se dice que habrá una diferencia entre un
momento y otro, pero no se especifica en qué sentido se da esta diferencia (cuando sólo se
predice que habrá una diferencia entre los puntajes en las intervenciones pero no se supone en
cuál de ellas habrá mayor puntaje).
La hipótesis nula para este caso es que las dos muestras de puntuaciones provienen de
poblaciones con la misma media, y por tanto la falta de diferencia entre estas medias debe
darnos valores cercanos a 0. La hipótesis nula diría que las pequeñas diferencias que pueden
La hipótesis nula en este caso se vale del promedio de diferencias o media diferencial de los
datos de la muestra comparados por momentos. Algo muy similar a la desviación estándar,
llamada aquí error estándar (ee). Cada muestra, extraída aleatoriamente, según la H0, difiere de
la media de 0 sólo por un error de muestreo. En ese sentido, cada desviación de una muestra de
la media de la población se considera un error. De ello se deduce la siguiente ecuación:
𝑆𝑑
𝑒𝑒 =
√𝑛
Siendo Sd la desviación estándar de las diferencias. Siguiendo esta línea se puede estimar la
proporción entre la media diferencial y el error estándar bajo un valor llamado t
∆𝑑
𝑡=
𝑒𝑒
Siendo ∆d la media diferencial o promedio de las diferencias entre los puntajes muestrales en
un momento y otro. O lo que es lo mismo
∆𝑑√𝑛
𝑡=
𝑆𝑑
El cálculo de t dependerá del uso de la tabla de valores críticos de t (la cual estará adjunta a este
curso), y ésta sólo es posible de usar si se conoce:
4 [ POLITÉCNICO GRANCOLOMBIANO]
Participante P en la técnica 1 P en la técnica 2 Diferencia (d)
1 6 6 0
2 15 10 5
3 13 7 6
4 14 8 6
5 12 8 4
6 16 12 4
7 14 10 4
8 15 10 5
9 18 11 7
10 17 9 8
∆x1 = 14 ∆x2 = 9,1 ∆d = 4,9
∑(𝑥𝑖 − ∆𝑥)2
𝑆𝑥 = √
𝑛− 1
a. (0 – 4,9)2 + (5 – 4,9) 2 + (6 – 4,9) 2 + (6 – 4,9) 2 + (4 – 4,9) 2 + (4 – 4,9) 2 + (4 – 4,9) 2 + (5 – 4,9) 2 +
(7 – 4,9) 2 + (8 – 4,9) 2 = (24,01) + (0,01) + (1,21) + (1,21) + (0,81) + (0,81) + (0,81) + (0,01) + (4,41)
+ (9,61) = 42,9
b. n – 1 = 9
42,9
c. 𝑆𝑑 = √ = 2,18
9
∆𝑑√𝑛
3. Se utiliza la ecuación 𝑡 =
𝑆𝑑
4,9√10
𝑡= = 15,49/2,18 = 7,1
2,18
4. Se encuentran las grados de libertad (gl = n - 1 = 10 – 1 = 9)
5. Se revisa la tabla de los valores críticos de t y se compara el valor calculado de t con el valor
crítico de la tabla. Según esta, para 9 grados de libertad, con una prueba de dos colas y con un
valor de alfa de 0,05, el valor crítico es de 2,26. El valor hallado por nosotros (7,1) supera este
valor (2,26), por tanto sabemos que la diferencia entre una técnica y otra es estadísticamente
significativa.
6 [ POLITÉCNICO GRANCOLOMBIANO]
Luego, seguimos la siguiente línea de comandos: Analizar/Comparar media/Prueba T para
muestras relacionadas…
En estas tablas se describen los valores medios de cada uno de los puntajes en las distintas
técnicas, pero el valor que nos dice si hay diferencias significativas o no es el que aparece
señalado en rojo (sig = 0,000). Recuerde que si este valor es inferior a 0,05 (5%) podemos decir
que las diferencias son significativas, rechazando así la hipótesis nula (aunque en este caso
particular es inferior, incluso, a 0,01).
8 [ POLITÉCNICO GRANCOLOMBIANO]
Graficación de las diferencias entre dos muestras relacionadas
El procedimiento para graficar dos muestras relacionadas es el siguiente: seguimos
esta línea de comandos: Gráficos/Cuadro de diálogo antiguos/Diagramas de cajas…
10 [ POLITÉCNICO GRANCOLOMBIANO]
Y se da a la opción de [Aceptar] para continuar. SPSS debe arrojar un gráfico como el siguiente:
Este gráfico muestra diferencias importantes entre los puntajes de las personas frente a un
tratamiento y los puntajes de las mismas personas frente a otro tratamiento. Es evidente que el
puntaje frente al primer tratamiento es superior al segundo.
H 0 : µ 1 = µ2
Siendo µ la media poblacional.
∆𝑥𝑎 − ∆𝑥𝑏
𝑡=
𝑒𝑒
Luego:
1. Se calcula el valor de (∑ xa)2 = 2116
2. Se calcula el valor de (∑ xb)2 = 1936
3. Se calcula la media del grupo 1: ∆xa = 11,5
4. Se calcula la media del grupo 2: ∆xb = 8,8
5. Se resta el valor de la media del grupo 2 al grupo 1: ∆xa - ∆xb = 2,7 (esto nos da el valor de la
parte superior de la ecuación)
6. Se reemplazan los valores en la ecuación
∆𝑥𝑎 − ∆𝑥𝑏
𝑡=
2 2
2 (∑ 𝑥𝑎 ) 2 (∑ 𝑥𝑏 )
(∑ 𝑥𝑎 − ) + (∑ 𝑥𝑏 − )
𝑛𝑎 𝑛𝑏 𝑛 + 𝑛𝑏
√ [ 𝑎 ]
(𝑛𝑎 + 𝑛𝑏 − 2) 𝑛𝑎 𝑛𝑏
[ ]
12 [ POLITÉCNICO GRANCOLOMBIANO]
2,7
𝑡=
2116 1936
(542 − ) + (390 − )
√[ 4 5 ] [4 + 5 ]
(4 + 5 − 2) 4∗5
2,7
𝑡=
(542 − 529) + (390 − 387,2) 9
√[ ][ ]
7 20
2,7
𝑡=
(13) + (2,8)
√[ ] [0,45]
7
2,7
𝑡=
√[2,25][0,45]
2,7
𝑡=
√1,0125
2,7
𝑡=
1,0062
𝑡 = 2,679
7. Se hallan los grados de libertad (gl = na + nb – 2 = 7)
8. Luego de esto se consulta la tabla de valores críticos. Para 7 gl, con un alfa de 0,05 y con una
prueba a dos colas, el valor crítico de t es de 2,365.
9. Comparamos nuestro resultado con el de la tabla. Al ser mayor el nuestro podemos decir que
la diferencia entre las medias es significativa.
Al poseer una variable categórica se requiere estipular los valores de las etiquetas, por ello
vamos a la casilla correspondiente a [Valores] en la fila de la variable nominal (GRUPO) (deben
Fuente. Elaboración propia
aparecer unos puntos suspensivos). Esto nos lleva al siguiente cuadro de diálogo:
En él asignamos los valores a cada una de las etiquetas, dependiendo de las características de
las variables y de las categorías asignadas a ella. Para nuestro ejemplo asignamos el valor
numérico 1 como etiqueta de la categoría Grupo 1, y el valor numérico 2 como etiqueta de la
categoría Grupo 2. Vamos añadiendo y aceptamos.
14 [ POLITÉCNICO GRANCOLOMBIANO]
Fuente. Elaboración propia
Nuestra vista de datos debe diferenciar los valores de los grupos y los valores de los puntajes de
ansiedad, como sigue:
Note que, a diferencia de las columnas y valores utilizados para las muestras relacionadas, en
este caso los valores de la variable cuantitativa están en una misma fila. Técnicamente es
posible hacer este mismo procedimiento para muestras relacionadas, colocando, en la variable
grupo, los momentos de tratamiento 1 y 2; pero los resúmenes estarían dados, no para distintas
variables, sino para grupos de casos.
16 [ POLITÉCNICO GRANCOLOMBIANO]
En este caso el programa nos abre un cuadro de diálogo como el que sigue:
Primero se define la variable de agrupación. Esta debe ser una variable categórica que informe
de los grupos; por tal razón, para este ejemplo, seleccionamos la variable (GRUPO) como
variable de agrupación. El programa, automáticamente, solicita que se [Definan los grupos]
Luego de esto se asigna la variable o variables a contrastar que, para nuestro caso, es el puntaje
de ansiedad, y se procede a [Aceptar]. SPSS debe arrojarnos un cuadro de resultados como el
que sigue:
Aquí es importante notar que la prueba t para muestras independientes arroja un valor de una
prueba adicional que no es otra que la prueba de Levene para la igualdad de varianzas. Esta,
como cualquier prueba inferencial, es una prueba de hipótesis donde la hipótesis nula supone
que se asumen varianzas iguales. Para este caso, si el valor de p de la prueba de Levene es
superior (>) a 0,05, se acepta la hipótesis nula, asumiéndose las varianzas como iguales, y
18 [ POLITÉCNICO GRANCOLOMBIANO]
seleccionando la primera fila de datos. Así, el valor seleccionado para la prueba t de diferencia
de medias es el que aparece abajo señalado en rojo (sig = 0,03)
Note que el valor de t es el mismo al hallado de forma manual. Al igual, la significancia, al ser
menor (<) a 0,05 señala que existen diferencias significativas entre los dos grupos. El informe
del resultado queda idéntico al expresado arriba.
Luego, se selecciona el eje de [categorías] que va a estar definido por la variable de agrupación y,
posteriormente, la variable a contrastar, la cual siempre será nuestra variable numérica.
Dándonos como resultado un cuadro como el siguiente:
20 [ POLITÉCNICO GRANCOLOMBIANO]
Luego de ello procedemos a [Aceptar]. SPSS debe arrojarnos un cuadro de resultados y una
imagen como la que sigue:
El gráfico hace evidente la diferencia entre los dos grupos en cuanto a los valores medidos en la
prueba de ansiedad.
Hechas estas explicaciones procedemos a ver otro caso común en los análisis cuantitativos, el
cual tiene que ver con la comparación de más de dos grupos.
Hasta el momento hemos visto la comparación de dos muestras, bien de los mismos individuos
o de individuos o grupos distintos. Sin embargo, es común encontrarse con la necesidad de
comparar más de dos muestras. En esto casos al estudiante le será útil aprender sobre el
análisis de varianza o comparaciones a través de la prueba de diferencia entre más de dos
condiciones ANOVA.
En esta unidad hablaremos del análisis de varianza unidireccional o ANOVA a un factor. Al ser
una prueba paramétrica exige los requisitos siempre mencionados para este tipo de pruebas: 1.
Normalidad, 2. Homogeneidad de la varianza y 3. Medidas escalares.
La hipótesis nula en el ANOVA supone que las poblaciones de las que se han obtenido de
manera aleatoria las muestras no difieren entre sí o tienen medias iguales. Para este caso H0 : µ1
= µ2 = µ 3
El análisis de varianza (ANOVA) compara las varianzas entre los grupos con la varianza
intragrupos. Aquí es importante señalar que se trata de evaluar qué tanto varían los valores al
interior de una categoría de una variable y comparar estos valores con las variaciones promedio
de otras categorías de la misma variable. De esta manera puede resultar una baja variación
intragupo y una alta variación entre grupos. Aunque también es de suponer que se pueda hallar
una alta variación al interior de los grupos y poca diferencia entre ellos.
El análisis de varianza parte del supuesto estadístico de que los grupos no tendrán grandes
variaciones a su interior (es decir, los grupos deben mostrar una baja variabilidad intragrupo).
Cuando esto no sucede, es decir, cuando hay una alta variabilidad intragrupo, se habla de error
como una variación indeseable que oscurece el efecto de la variable independiente (Coolican,
2005, p.329). La varianza calculada de este error se conoce como varianza de error y llega a ser
importante para entender los análisis de varianzas.
Coeficiente F
El coeficiente F es el resultado de comparar la varianza entre grupos con la varianza intra grupos.
𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑒𝑛𝑡𝑟𝑒 𝑔𝑟𝑢𝑝𝑜𝑠
𝐹=
𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑖𝑛𝑡𝑟𝑎 𝑔𝑟𝑢𝑝𝑜𝑠
22 [ POLITÉCNICO GRANCOLOMBIANO]
A partir de la hipótesis nula se supone que, si las medias se obtienen de manera aleatoria de la
misma población, el estimado de la varianza poblacional entre grupos debería ser igual al
estimado de la varianza intragurpos, con lo cual el valor de F debería ser idéntico a 1. A partir de
la ecuación de la varianza
∑(𝑥𝑖 − ∆𝑥)2
2
𝑆 =
𝑛− 1
Luego, se calcula la varianza de todos los componentes (conocida también como media de la
suma de cuadrados MS), que es simplemente la división de la Sc por los grados de libertad. Hay
que advertir que los grados de libertad varían entre grupos e intra grupos. Los grados de
libertad totales dependen del n total calculado entre todos los grupos que, para este caso será
de 12.
gl Total = n – 1 = 12 – 1 = 11.
Entre grupos los grados de libertad depende de las cantidades de condiciones o de grupos (k)
gl Entre = k – 1 = 3 – 1 = 2.
Intra grupos los grados de libertad se calculan de la siguiente forma
gl Intra = gl Total – gl Entre = 11 – 2 = 9.
Así, aplicando esta pequeña ecuación podemos calcular las medias de las sumas de los
cuadrados.
𝑆𝑐
𝑀𝑆 =
𝑔𝑙
𝑆𝑐(𝑒𝑛𝑡𝑟𝑒)
𝑀𝑆𝑒𝑛𝑡𝑟𝑒 =
𝑔𝑙(𝑒𝑛𝑡𝑟𝑒)
55,5
𝑀𝑆𝑒𝑛𝑡𝑟𝑒 =
2
𝑴𝑺𝒆𝒏𝒕𝒓𝒆 = 𝟐𝟕, 𝟕𝟓
𝑆𝑐(𝑖𝑛𝑡𝑟𝑎)
𝑀𝑆𝑖𝑛𝑡𝑟𝑎 =
𝑔𝑙(𝑖𝑛𝑡𝑟𝑎)
51,5
𝑀𝑆𝑖𝑛𝑡𝑟𝑎 =
9
𝑴𝑺𝒊𝒏𝒕𝒓𝒂 = 𝟓, 𝟕𝟐
El valor de F será igual a
𝑀𝑠 𝑒𝑛𝑡𝑟𝑒
𝐹=
𝑀𝑠 𝑖𝑛𝑡𝑟𝑎
27,75
𝐹=
5,72
𝐹 = 4,85
24 [ POLITÉCNICO GRANCOLOMBIANO]
Este valor de F se compara con la tabla para valores críticos de F con 2 gl entre (numerador) y 9
gl intra (denominador). El valor crítico en la tabla es de 4,26. El valor calculado supera este valor
crítico, con lo cual se sabe que existen diferencias significativas entre los grupos.
26 [ POLITÉCNICO GRANCOLOMBIANO]
Allí seleccionamos como factor la variable categórica o aquella que diferencie los grupos (para
este caso GRUPO). Luego, seleccionamos, en [Lista de dependientes] la variable escalar
[PUNTAJE] y le damos a [Aceptar]. SPSS debe arrojarnos una tabla de resultados como la
siguiente:
ANOVA
Puntaje
Suma de cuadrados gl Media cuadrática F Sig.
Inter-grupos 55,500 2 27,750 4,850 ,037
Intra-grupos 51,500 9 5,722
Total 107,000 11
Allí se pueden ver los valores de los gl inter grupos e intra grupos, al igual que el gl total.
También podemos encontrar el valor de F, el cual es idéntico al encontrado de manera manual.
El valor de la significancia (sig. = 0,037), al ser inferior (<) a 0,05, indica que existen diferencias
significativas entre los grupos. El informe del análisis es el mismo que aparece arriba.
El procedimiento para realizar el gráfico del ANOVA sigue los mismos parámetros y comandos
que el utilizado para la prueba t para muestras independientes, sólo que en lugar de dos grupos
aparecerán tres. Por ello se omite en esta ocasión.
Hasta el momento hemos estado trabajando sobre pruebas que cumplen tres condiciones
importantes: 1. Normalidad, 2. Homogeneidad de varianzas, y 3. Tipo de medida escalar. En la
siguiente unidad vamos a conocer las pruebas que se aplican en los mismos casos de
comparación cuando no se cumple alguno de los criterios mencionados. Estas pruebas recibirán
el nombre de pruebas no paramétricas.
PRUEBAS NO PARAMÉTRICAS
Es posible que el estudiante al incluir datos en su base se haya encontrado con valores
categóricos, tanto ordinales como nominales, y se haya preguntado cómo se puede comparar
este tipo de valores. Pues bien, los datos nominales y ordinales también son susceptibles de
comparación y de búsqueda de relación a través de las denominadas pruebas no paramétricas.
Estas, como veremos más adelante, son un poco más fáciles de calcular manualmente que las
pruebas paramétricas.
Las pruebas no paramétricas se utilizan cuando no se cumple los criterios siempre mencionados
para las pruebas paramétricas: normalidad, homogeneidad y tipo de medida. La primera prueba
no paramétrica a estudiar es la prueba de correlación rho de Spearman. Esta sigue muchos de
los parámetros lógicos de la prueba de correlación de Pearson.
2 [ POLITÉCNICO GRANCOLOMBIANO]
PRUEBAS NO PARAMÉTRICAS DE CORRELACIÓN: RHO DE SPEARMAN
En la semana 5, vimos cómo calcular correlaciones cuando los valores seguían una serie de
condiciones de las pruebas paramétricas. Como se mencionaba anteriormente, es probable que
los datos puedan no resultar válidos para las pruebas escalares. La rho de Spearman es una
medida no paramétrica de correlación que funciona con datos a nivel ordinal. La rho de
Spearman, a diferencia de la prueba de correlación de Pearson, utiliza los rangos de los valores
en cuanto a las dos variables pareadas, más que la puntuación en sí misma. En este sentido, la
rho de Spearman compara la posición de cada persona en cuanto a una variable.
Coolican (2005, p.303) señala que el fundamento del coeficiente de correlación de Spearman es
que las diferencias entre los rangos serán pequeñas cuando exista una elevada correlación
positiva. Esto quiere decir que la diferencia entre el par de rangos de cada persona debería ser
bajo, o incluso de cero, en tanto exista una fuerte correlación.
6 ∑ 𝑑2
𝑟ℎ𝑜 = 1 −
𝑛(𝑛2 − 1)
6 𝑥 46
𝑟ℎ𝑜 = 1 −
7(72 − 1)
276
𝑟ℎ𝑜 = 1 −
336
𝑟ℎ𝑜 = 0,179
Ahora bien, se debe comparar este valor con los valores críticos para la rho de Spearman en la
tabla (anexa a este curso). Recuerde que el valor debe ser igual o mayor que el de la tabla para
que tenga significancia. Entonces para n = 7 datos, con un alfa de 0,05 y una prueba a dos colas,
el valor crítico de la tabla es de 0,786. Este valor está muy por encima del por nosotros
conseguido, por tanto no se puede afirmas la significancia de la prueba de correlación.
Es importante notar que el nivel de medida para este caso debe ser ordinal, que es lo que
caracteriza al análisis con el coeficiente de correlación de Spearman. La base debe quedarnos,
en sus valores, como sigue:
4 [ POLITÉCNICO GRANCOLOMBIANO]
Fuente. Elaboración propia
6 [ POLITÉCNICO GRANCOLOMBIANO]
Note que el cuadro debe decir Correlaciones no paramétrica y, al interior del mismo, Rho de
Spearman. También note que el valor de la correlación es el mismo al hallado de manera
manual.
Para ello hay que atender, de nuevo, a dos cosas. Lo señalado en rojo informa el valor de la
fuerza de la correlación. Recordemos que esta debe aproximarse a uno para decir que hay una
correlación. El mínimo exigido en estos casos es de 0,66. Aquí el valor de la fuerza de la relación
es inferior al valor antes señalado (0,66), por lo tanto sabemos de antemano que no hay
correlación. Lo segundo, señalado en amarillo, informa la significancia. Recordemos que el valor
esperado para decir que una prueba es o no significativa (y por tanto para rechazar la hipótesis
nula) es menor a 0,05 o al 5%. En este caso el valor señalado en amarillo está muy por encima
del 0,05, por lo cual sabemos que esta prueba no es significativa. A partir de lo anterior
podemos ejemplificar el reporte del resultado del cálculo del coeficiente de correlación de
Spearman para la relación de los rangos de dos variables. Recuerde que en este caso no se
encontró correlación y esa no correlación resultó ser no significativa:
Hemos visto hasta el momento comparaciones de variables escalares y ordinales. Sin embargo,
es probable que el estudiante se encuentre con la necesidad de comparar datos nominales. Las
tablas de frecuencias ya fueron presentadas con anterioridad en la unidad correspondiente al
análisis descriptivo. Sin embargo, es posible comparar las frecuencias de las categorías en tablas
que comparan los valores de distintas categorías.
Por ejemplo, se podría postular una asociación entre el tiempo de deserción en una carrera y la
pertenencia a un tipo de universidad, sea esta pública o privada, a través de la comparación del
número de estudiantes que desertan de universidades públicas y privadas en distintos
momentos de la carrera. Podemos ejemplificar esto a través de la siguiente tabla de frecuencia,
que resume los valores de las frecuencias para cada comparación.
Como se observa, este tipo de tablas es muy común en las investigaciones psicológicas. Así, la
chi cuadrada es una herramienta útil para especificar la asociación entre variables que tienen,
ambas, varias categorías, generalmente de orden nominal.
La chi cuadrada es la prueba a utilizar cuando se busca la asociación donde las variables
implicadas son categóricas. El diseño utilizado será entre grupos, de modo que cada persona o
caso contado puede ocurrir sólo en una de las casillas de la tabla de frecuencia. La hipótesis nula
en la chi cuadrada diría que la población siempre se distribuye de forma uniforme entre los
distintos casos.
La frecuencia predicha según la hipótesis nula se conoce como frecuencia esperada. Es lo que
uno esperaría que ocurriera con las frecuencias totales si la H0 fuese cierta. Las frecuencias
obtenidas realmente se conocen como frecuencias observadas. En ese sentido la chi-cuadrada
8 [ POLITÉCNICO GRANCOLOMBIANO]
basa su análisis en la comparación de las frecuencias esperadas contra las frecuencias
observadas. La fórmula para calcularla es la siguiente:
2
(𝑜 − 𝑒)2
𝑋 = ∑
𝑒
Chi cuadrada de 2 x 2
Cuando trabajamos con una tabla de contingencia con dos filas y dos columnas, como en el
primer ejemplo, es relativamente facil descubrir si existe una asociación entre el pertenecer a
una universidad pública y privada y el tiempo de deserción.
Para ello vamos a utilizar el cálculo de la chi cuadrada siguiendo la ecuación de las frecuencias
esperadas:
𝐹𝑥𝐶
𝑒=
𝑇
Para ejemplificar el uso del SPSS para el cálculo de la chi cuadrada continuaremos con el
ejercicio anterior. Pero, a diferencia de las formas hasta ahora utilizadas para la elaboración de
la base y debido a que los datos del ejemplo se encuentras agrupados, vamos a utilizar un atajo
que se conoce como ponderación de casos. Para ello se debe ingresar una nueva variable que
tenga por título [TOTAL]. Además, se deben seguir los pasos para la asignación de valores de
etiqueta vistos anteriormente durante la prueba t para muestras independientes.
10 [ POLITÉCNICO GRANCOLOMBIANO]
Fuente. Elaboración propia
En la vista de datos, los valores se designan por los totales de los casos. Así, aparecen valores
para cada opción en cada una de las combinaciones de la categorías, quedando una base como
la que sigue:
Luego de seleccionar esta opción, SPSS arroja el siguiente cuadro de diálogo. En el cual se
selecciona la alternativa [Ponderar casos mediante] y se designa la variable [Total]. Aceptándose
la ponderación.
12 [ POLITÉCNICO GRANCOLOMBIANO]
Teniendo esta base ya ponderada procedemos con los comandos para la chi cuadrada:
Analizar/Estadísticos descriptivos/Tablas de contingencia…
Se procede a [Continuar] y a [Aceptar]. El resultado del análisis de SPSS debe arrojarnos las
siguientes tablas:
14 [ POLITÉCNICO GRANCOLOMBIANO]
En este caso, el valor de la x2 es muy similar al calculado por nosotros de manera manual.
Este mismo procedimiento permite que el programa nos muestre el gráfico correspondiente al
análisis, sin necesidad de pasos adicionales. Como verá, el gráfico de barras agrupadas es una
forma de estimar visualmente, una posible diferencia entre los grupos seleccionados. En el
ejemplo trabajado no se notan mayores diferencias entre los tipos de universidades y el tiempo
de deserción.
16 [ POLITÉCNICO GRANCOLOMBIANO]
Análisis Inferenciales:
Las Pruebas no Paramétricas
SEMANA 8
Al ser una prueba para muestras relacionadas, la prueba T de Wilcoxon compara los resultados
en un momento de una persona contra los resultados en otro momento de esa misma persona.
Ahora bien, resalto resultados porque realmente esta prueba se basa en los rangos de las
diferencias entre estos puntajes, más que en el resultado en sí. La hipótesis nula para este caso
supone que las dos poblaciones de las que se extrajeron las puntuaciones son idénticas.
2
La prueba busca las diferencias entre dos puntajes medidos en dos momentos y asigna valores,
positivos o negativos, a estos puntajes. Luego selecciona de entre los grupos así conformados,
tanto con signos positivos como con signos negativos, los que menor aparición obtuvieron y
suma estos valores. La prueba no tiene en cuenta los valores de empate. Veamos a través de un
ejemplo esto que acabamos de mencionar.
Para esta parte vamos a seguir el ejemplo planteado por Coolican (2005, p.247), que muestra la
calificación de 15 estudiantes en dos pruebas distintas:
El valor del rango de diferencia informa de la posición que desde el puntaje de la diferencia se le
otorga a la persona del total de posibles posiciones. Es así que el menor valor (-2) del conjunto
de datos de diferencia (B – A) tendrá el valor de 1 como rango de diferencia (nótese que no se
toman datos con diferencia de 0) y el valor con la máxima diferencia (+21) tendrá el máximo
rango de diferencia (14). De forma similar a lo realizado con la rho de Spearman, la T de
Wilcoxon ordena los valores a partir de los signos en una jerarquía. Luego, selecciona de entre la
suma de las diferencias positivas y las sumas de las diferencias negativas, las más pequeñas. De
[ METODOS CUANTITATIVOS DE 3
PSICOLOGÍA ]
la tabla anterior, las suma de los rangos más pequeña corresponde a los valores de los signos
negativos (-2, -5 y -7), los valores de los rangos de diferencia correspondientes a estos valores
son: 1, 6 y 8. Así, para calcular la T, basta simplemente con sumar estos valores.
T = 1 + 6 + 8 = 15.
Luego, como en los demás procedimientos manuales, se consulta la tabla de valores críticos
correspondiente para conocer el valor crítico necesario cuando n = 14, alfa es 0,05 y la prueba
es a dos colas. Para este caso, según la tabla, el valor crítico esperado es de 21. A diferencia de
otras ocasiones, el valor de t calculado debe ser equivalente o menor al valor de t crítico para
decir que la diferencia es significativa. En este ejemplo el valor calculado de t es menor, por lo
que se puede rechazar la H0.
El informe de la prueba de rangos con signos de Wilcoxon señala los valores de los rangos
encada dirección de los signos. Así, siguiendo el ejemplo anterior, y acorde a lo señalado por
Coolican (2005, p. 248), el informe del análisis quedaría de la siguiente forma:
4
Seleccionamos sólo los valores de la calificación.
[ METODOS CUANTITATIVOS DE 5
PSICOLOGÍA ]
Esta serie de comandos despliega un cuadro de diálogo como el que sigue, en donde debe estar
señalada la prueba deseada [Wilcoxon]
6
La prueba, como se había calculado manualmente, es significativa y responde a los rangos
negativos. SPSS también señala el menor valor de la suma de rangos (15), siendo este el valor de
T. El informe del análisis se realiza de la forma descrita arriba.
La prueba de Mann-Whitney, al igual que la de Wicoxon, se basan en el orden del rango; sin
embargo, en la prueba de Mann-Whitney no es necesario una calificación que informe de este
rango. En estos casos lo que se hace es averiguar, por cada persona en un grupo, cuántas
personas en el otro grupo superan la puntuación de esa persona. Según Coolican (2005, p.249)
esto se logra de la siguiente manera:
1. Cada vez que se supera una puntuación por uno en el otro grupo se concede un punto.
2. Cada vez que una puntuación sea igual a una puntuación en el otro grupo se otorga ½
punto.
3.
Con esta información es relativamente sencillo calcular el valor de la U de Mann-Whitney para
un conjunto de datos. La hipótesis nula en la prueba U de Mann-Whitney es que las poblaciones
de las que se han elegido de manera aleatoria las dos muestras son idénticas. Veamos esto con
el ejemplo señalado por Coolican (2005, p. 249).
Sigamos el ejemplo planteado por este mismo autor (Coolican, 2005, p. 249).
Empleo de tiempo completo Ningún empleo fuera de casa
Puntuación Puntos Puntuación Puntos
17 9 19 6
32 7 63 0
39 6.5 78 0
27 8 29 4
58 6 39 1.5
25 8 59 0
31 7 77 0
81 0
68 0
51.5 11.5
[ METODOS CUANTITATIVOS DE 7
PSICOLOGÍA ]
Este tipo de pruebas permiten diferenciar entre los casos de cada una de las variables a
contrastar. U será igual al menor de los dos valores totales de la suma de los puntos. Para este
caso, el valor de U sería igual a 11,5. Ahora bien, el paso siguiente es contrastar este valor con
valor crítico el arrojado por la tabla correspondiente. El valor crítico según la tabla para una
prueba a dos colas y un valor de alfa de 0,05 y con n1 = 7 y n2 = 9 es 12. Al ser el valor
encontrado menor que el valor crítico se supone, al igual que con la prueba T de Wilcoxon, que
la diferencia entre estos valores es significativa, rechazándose la H0.
Siendo este el resultado el informe del análisis de la prueba U de Mann-Whitney queda como
sigue:
8
Los valores de las variables quedan como sigue:
[ METODOS CUANTITATIVOS DE 9
PSICOLOGÍA ]
Esta serie de comandos nos conducen al siguiente cuadro de diálogo.
10
Aquí hay que verificar que el tipo de prueba seleccionada sea la U de Mann-Whitney.
Adicionalmente se define la variable de agrupación. Esta debe ser una variable categórica, la
cual definirá las categorías que conformaran los grupos. Para este ejemplo la variable es
[EMPLEO]. Recuerde que en este caso debe definir los grupos.
Por último se selecciona la variable a contrastar. Para este caso será [PUNTUACION], y se
procede a [Aceptar]. Al finalizar este proceso SPSS arroja la siguiente tabla de resultados:
[ METODOS CUANTITATIVOS DE 11
PSICOLOGÍA ]
El programa arroja un valor de U de 11,5, el mismo hallado de la forma manual (señalado en
rojo) y un valor de significancia inferior a 0,05 (señalado en amarillo), con el cual se rechaza la
hipótesis nula. El informe del análisis de estos valores se realiza de la forma señalada arriba.
Con esta última parte terminamos la unidad y el módulo de métodos cuantitativos. Espero que
este haya sido de provecho para el estudiante interesado en profundizar en los análisis
numéricos de los datos producto, tanto de investigaciones como de la actividad clínica.
12