Sunteți pe pagina 1din 106

Seminario de Investigación

Cuantitativa

Dr. Oswaldo Leyva Cordero


Objetivo
 El alumno comprenderá los métodos y técnicas
cuantitativas con la intención de que planee una
metodología de investigación de un caso concreto de
la realidad observable con implicaciones y variables
reales, con un alto rigor científico con fundamento en
las corrientes metodológicas clásicas y
contemporáneas, dependiendo del tipo de
investigación.
Temario
Actividad Evidencia Fecha
1. Presentación 1-5 Agosto
La importancia del diseño de la
Investigación
2. Fases del proceso de investigación (1) Mapa Conceptual (E1) 8-12 Agosto
3. Tipos de investigación cualitativa y (2) Cuadro comparativo (E2) 15-19 Agosto
Cuantitativa
4. Diseño de la investigación cuantitativa (3) Caso práctico Título e introducción (E3) 22-26 Agosto

5. Diseño de la investigación cuantitativa (4) Caso práctico Marco Teórico (E3) 29-2 Septiembre
6. Diseño descriptivo, Correlaciónales (5) Caso práctico Marco Teórico (E3) 5-9 Septiembre
7. Diseño experimentales y Cuasi-experimentales (6) Examen 1 Parcial (E4) 12-16 Septiembre

8. Constructos, variables e Hipótesis (7) Caso práctico Instrumento y variables de 19-23 Septiembre
estudio Hipótesis (E3)
9. Población y muestra (8) Caso práctico Selección de la muestra y 26-30 Septiembre
Recolección de datos recolección de datos(E3)
10. Confiabilidad y validez (9) Caso práctico Codificación y captura en 3-7 Octubre
La encuesta SPSS Método (diseño del estudio, muestra,
Codificación y captura instrumento, etc.) (E3)
11. Análisis cuantitativo de datos (10) Ejercicios Prácticos Pruebas estadísticas en 10-14 Octubre
Niveles de medición y SPSS Resultados generales
Pruebas estadísticas
12. Niveles de medición y pruebas (11) Ejercicios Prácticos Pruebas estadísticas en 17-21 Octubre
Estadísticas SPSS Resultados generales (E3)
13. Programas estadísticos para el análisis de (12) Ejercicios Prácticos Pruebas estadísticas en 24-28 Octubre
datos SPSS Resultados generales (E3)
14. Análisis de datos (13) Ejercicios Prácticos Discusión y 31-4 Noviembre
Discusión de resultados conclusiones(E3)
15. Producto integrador de aprendizaje Entrega Final (Examen 2 Parcial) (E4) 7-11 Noviembre
Trabajo Final
Método

Diseño de investigación
Cuantitativa
Diseño de Investigación
 Exploratorio: nos familiarizamos con un tópico desconocido.
 Sus resultados nos sugieren afirmaciones que deberán ser verificadas con posterioridad.
 Es más flexible, sin embargo los resultados pueden ser considerados no determinantes.

 Descriptivo: permite analizar cómo es un fenómeno y la manera en


que éste se manifiesta
 Permiten describir, medir o evaluar con precisión ciertos atributos o variables.
 Se debe contar con un buen sistema de muestreo.
 Pueden conducir a predicciones rudimentarias.

 Correlacional: analizan la relación de diversos fenómenos entre sí.


 Permite medir el grado de relación existente entre dos o más variables
 Sus resultados tienen un mayor valor explicativo
 Hay que tener cuidado con las relaciones (espurias), que son aparentemente asociadas, pero que en realidad
no están.

 Explicativo: busca causalidad, estudian las causas que provocan


un fenómeno.
 Explican porque ocurre el fenómeno y bajo que condiciones.
 Estas investigaciones están más estructuradas.
 A partir de una fuerte base teórica se plantean hipótesis con variables predictoras (Las independientes o
explicativas) y otras (Las dependientes o explicadas)
Diseño de Investigación
 Experimental: Cuando a través de un experimento se
pretende llegar a la causa de un fenómeno. Su esencia es la
de someter el objeto de estudio a la influencia de ciertas
variables en condiciones controladas y conocidas por el
investigador.

 Cuasi-experimental: Cuando estudia las relaciones causa-


efectos, pero no en condiciones de control de las variables
que maneja el investigador en una situación experimental.
Tipos de estudio (Tiempo)
 Longitudinales: Los datos son obtenidos con una periodicidad.
• Cohorte (Se extraen muestras en dos momentos)

• Panel (Seleccionamos una muestra y les preguntamos en diferentes momentos)

• Tendencia (Preguntamos en diferentes momentos en forma sistemática)

 Transversales o seccionales: Los datos son obtenidos en una sola


aplicación.
Enfoques cuantitativo y cualitativo
Cuantitativo Cualitativo

El método deductivo parte los El método inductivo intenta ordenar


datos generales aceptados, la observación tratando de extraer
para luego aplicarlo a casos conclusiones desde la acumulación
individuales y comprobar así su de datos particulares.
validez, en base a datos
numéricos precisos.
Otras características sobre los métodos

Cualitativos Cuantitativos
Se limita a preguntar Se limita a responder
Fuertes en términos de validez Débiles en validez interna, sin
interna, sin embargo son débiles en embargo fuertes en validez externa
validez externa
Resultados no generalizables Resultados generalizables
Pretende estudiar y entender los Comprende los hechos sociales
fenómenos sociales desde la desde un método científico,
perspectiva del actor demostración de causalidad
Base epistemológica: Base epistemológica: Positivismo (afirma
Fenomenología (interesado en comprender que el único conocimiento auténtico es
la conducta humana desde el propio marco de el conocimiento científico) y funcionalismo
referencia de quien actúa) (preconiza las ventajas del trabajo de campo).
Relación entre un modelo y la realidad

Realidad

Es necesario medir y cuantificar los aspectos de interés científico.


La medición se define como la asignación de números a objetos
o eventos, es decir, a las unidades de análisis, de acuerdo a
ciertas reglas.

El proceso de medir conceptos y la aplicación completa del


mismo, comúnmente se conoce como la operacionalización de
un concepto.
MARCO TEÓRICO

Factores socioeconómicos
Conativo • Características de
y demográficos
posmodernidad y de
Reacción un mundo Globalizado
Cognitivo Conativo
Alto consumo 15 y 29 años • Se consideran mas
consumidores e
individualistas.

Sentimiento Socialización política • (26% de la población


Afectivo en México son jóvenes)

Confianza +_
Formas de opinión e interacción instantánea y
Eficacia Política nuevas formas de convivencia democrática
+
Satisfacción
Interés + democrática
Montero, Marín, Bonet, Transforma el espacio político
y política
Rojas, Padilla y Flores Lógica de demanda
Ideología + González, Manzi, Rojas Incremento Baja participación

+_ _ +
Cinismo político Actividad donde existe un orden
establecido (Voto)
Apatía
Edad
Afectivo Interacción
Brussino, Rabbia

Sofisticación Política Actividades intermedias y de baja


intensidad positivas o negativas + _
Cognitivo
Gobierno, Instituciones políticas,
partidos políticos, Actores políticos Mayor
Información
Cognitivo participación

Conocimiento + Son equiparadas con acciones de


Nuevos escenarios Democráticos protesta de alta intensidad
Teória “círculo virtuoso”

con Participación genera


Activa en la
política
Mayor
Personas
Actitudes consumo de
Políticas
medios sobre
política
A un mayor
de fortalece
activismo
político

Norris (2000)
VARIABLES

Variables
Variables Variables Variables
dependiente
mediadoras de Control Independientes
s
Exposición a Participación
Confianza Edad medios Política
electrónicos convencion
al
Eficacia Nivel Atención a Participación
Política Socioeconómi medios Política no
co electrónicos convencion
al
Interés
Genero Participación
Política
Conocimient mixta
o
Religión
Sofisticación
Política
Municipio

Escolaridad
Modelo teórico

Zona
Nivel Variables
Edad Genero Religión Geográfi
Socioeconómico de Control
ca
Variables Variables Variables
Independientes mediadoras dependientes

Confianza Participación
Exposición a medios Política
Eficacia convencional
electrónicos Política
Participación
Atención a medios Interés Política no
electrónicos convencional
Conocimiento Participación
Política mixta
Sofisticación
Política

Consumo de medios Participación


electrónicos Política
Modelo Teórico
Constructos:
Es una propiedad que se supone posee una persona, la cual
permite explicar su conducta en determinadas reacciones.
(Guillermo Briones, 1997).

Los constructos no pueden medirse o evaluarse en forma


directa, sino mediante indicadores. Un constructo permite dar
nombre a una variable que no es directamente observable.

Ejemplos:
La inteligencia, la motivación, la sensibilidad, la
responsabilidad, las actitudes, etc.
Variables

Las variables.

Se pueden definir como “aquellas características, propiedades, cualidades o


aspectos diferenciadores entre los distintos fenómenos, hechos o individuos
que para cada uno de los cuales presentan un único valor”.

Las variables se miden a partir de indicadores. Éstos corresponden a las


propiedades manifiestas de las variables.

Clasificación de las variables.

En primer lugar hay que tener en cuenta si una variable es simple o compleja:
Simple: si tiene un solo indicador
Compleja: si tiene más de un indicador
Variables
Variable independiente: variables que el investigador manipula y/o mide para
ver los efectos que produce sobre otra variable.

Variables dependientes: variables cuyos valores van a depender de los valores


de la o las variables independientes

Variable moderadora: tipo de variable independiente que se manipula y/o


mide para comprobar si modifica la relación entre la variable independiente y
la variable dependiente. Se incluye para ver sus efectos sobre la variable
dependiente.

Variable mediadora: un tipo de variable a través de la que se trasmite la


influencia de la(s) o variable(s) independientes y/o moderadoras sobre la
variable dependiente. En su relación con la variable dependiente sería
independiente. Pero en su relación con la variable independiente sería
dependiente

Variable de control: es un tipo de variable independiente que no se manipula


sino que se mantiene constante para neutralizar sus efectos sobre la variable
dependiente
Variables

1 2

• Efecto de covariación
• Efecto de mediación
• Efecto de moderación
5 • Efecto causal
• Efecto de espuriedad
Niveles de medición de las variables

 Nominal: Los valores representan categorías, sin una ordenación.


• Las variables nominales pueden ser valores de cadena (alfanuméricos) o
numéricos que representan diferentes categorías (Por ejemplo, 1= Hombre,
2=Mujer)

 Ordinal: Los valores de los datos son representan categorías con un


cierto orden (por ejemplo, bajo, medio, alto).
• Las variables nominales pueden ser valores de cadena (alfanuméricos) o
numéricos que representan diferentes categorías (Por ejemplo, 1= bajo,
2=medio, 3=alto). Entre los ejemplos de variables ordinales se incluyen escalas
de actitud que representan el grado de satisfacción o confianza y las
puntuaciones de evaluación de las preferencias.

 Escala: Los valores de los datos son numéricos en una escala de


Intervalo o de Razón. (Por ejemplo, la edad en años y los ingresos). Las
escalas de intervalo no tienen cero absoluto (Por ejemplo la talla), pero las de
razón sí (Por ejemplo el ingreso).
¿Qué es operacionalizar las variables?
•Traducir los conceptos en sus definiciones
•Definir las dimensiones en las cuales operan
•Formular las estructuras para identificarlas en la experiencia

Dimensión
• Variable • Indicador
• Definición
conceptual

Concepto Instrumento
Proceso de operacionalización de las variables
VARIABLE DEFINICIÓN DIMENSIONES INDICADORES
CONCEPTUAL
Clase social Lugar ocupado por Cultural La actitud
las personas dada discursiva frente al
una determinada entorno
distribución de corresponde a la
bienes económicos, formación obtenida
culturales y de
prestigio, Económica Los ingresos
produciendo zonas periódicos
de circulación mantienen el status
discursiva
Prestigio El entorno
reconoce el
esfuerzo y los
beneficios logrados
con este.
Relación entre un modelo y la realidad

LA PREDICCIÓN DE LA CONDUCTA A TRAVÉS DE LOS CONSTRUCTOS QUE


INTEGRAN LA TEORÍA DE ACCIÓN PLANEADA
Instrumento
Instrumento
 La elaboración de un instrumento que evalúe la cultura
organizacional, es un factor determinante para el desempeño de
todos los trabajadores que conforman la organización. Así, una
empresa, al conocer sus fortalezas y debilidades culturales, podra
trabajar sobre ellas con el objetivo de lograr una mayor
productividad mediante el cambio de los aspectos que estén
influenciándola negativamente. La validación en este trabajo se
llevó a cabo mediante seis jueces expertos.

 A cada uno de ellos, se les dio el Instrumento, la interpretación y los


respectivos formatos para que evaluaran la coherencia, la
pertinencia y la redacción de las preguntas que forman el
Instrumento y de este modo llegar al primer paso de la validación del
mismo.
Definición de cultura organizacional

 Pettigrew, citado por Hatch (1997), define cultura como un sistema de


significados públicos y colectivos en un grupo y tiempo determinado. Este
sistema esta formado por términos, formas, categorías e imágenes que las
personas interpretan como propios. Por otra parte, años más tarde Louis
citado por Hatch (1997), propone cultura como una situación que se
distingue de otras unidades sociales por que posee un conjunto de acciones
comunes para la organización, el lenguaje y otros vehículos simbólicos para
expresar aspectos comunes. Otra definición de cultura es la propuesta por
Siehly y Martin, citado por Hatch (1997), donde la cultura organizacional se
ve como el pegamento que mantiene unida una organización a
significados. Donde principalmente se centra en los valores, creencias y
expectativas que los miembros forman en torno a la organización.

 Por otra parte Schein, citado por Hatch (1997), propone la cultura como el
patrón básico de apropiaciones que un grupo ha inventado, descubierto o
desarrollado en el aprendizaje de sus problemas de adaptación externa e
integración interna, y que ha trabajado en él, para ser considerado valido
para ser tomado por los nuevos miembros como una forma correcta de
percibir, pensar y sentir con relación a esos problemas.
Variables
El instrumento de cultura organizacional, evalúa los siguientes factores:

 Valores: Entendidos como el conjunto de principios o cualidades consideradas por


los integrantes de una organización como el servicio al cliente, la innovación, entre
otros. Creencias: Definidas como las hipótesis o consideraciones que se tienen del
modelo del negocio en la organización las cuales pueden ser verdaderas o falsas.

 Clima: Entendido como la atmósfera o los sentimientos dentro del ambiente


organizacional que se hace visible en la parte física del lugar, como trabajan los
empleado entre otras.

 Normas: Conocidas como los estándares o reglas que envuelven la organización


incluyendo la manera de cómo deben comportarse los trabajadores.

 Símbolos: Definido como el conjunto de íconos, rituales y tradiciones esenciales para


la empresa como por ejemplo, las ceremonias realizadas anualmente.

 Filosofía: Entendida como las políticas establecidas e ideologías que guían las
acciones organizacionales.
Instrumento
Medición de escalas
Construcción de una escala Likert
 En los resultados hay que detectar aquellos ítems en los que se localicen
diferencias estadísticamente significativas (P<.05). Estos ítems son utilizados
para la escala definitiva. Los restantes son eliminados.

 El formato de respuesta más habitual es de 5 ó 7

 Se indica el grado de acuerdo-desacuerdo con una serie de afirmaciones


(1-5)

 La suma de las afirmaciones de la escala ofrece una misma dimensión.

 Se calcula la unidimensionalidad de la escala:

 Análisis factorial: correlación entre variables

 Análisis de fiabilidad: consistencia interna (Alpha de Cronbach). El


coeficiente Alfa de Cronbach es un modelo de consistencia interna, basado
en el promedio de las correlaciones entre los ítems. Entre las ventajas de esta
medida se encuentra la posibilidad de evaluar cuánto mejoraría (o
empeoraría) la fiabilidad de la prueba si se excluyera un determinado ítem.
Un ejemplo: A mayor valor de Alfa, mayor fiabilidad. El
mayor valor teórico de Alfa es 1, y en general 0.70 se
considera un valor aceptable.
¿Validación?
¿Validación?
Controlar sesgos

Controlar variables
confusas

Es un proceso
Generar el mejor
metodológico que
proceso estándar
intenta

Interpretar de mejor
modo los
procedimientos
realizados
La validez, se refiere al grado en que un instrumento realmente mide la variable
que pretende medir.

Se refiere al grado en que un instrumento refleja un dominio específico de


contenido de lo que se mide.

Es el grado en que la medición representa el concepto medido.

Un instrumento de medición debe tener representados a todos los ítems del


dominio de contenido de las variables a medir.
Un mismo instrumento de medición es aplicado dos o más
veces a un un mismo grupo de personas, después de un
período de tiempo

Coeficiente alfa de Cronbach

 Produce valores que oscilan entre cero (0) y uno (1).

 Aplicable a escala de varios valores posibles.

 determina el grado de consistencia y precisión


Pasos para elaborar un instrumento de medición:

 1. Determinar cuál es la variable que se desea medir.

 2. Definir la variable.

 3. Determinar indicadores válidos de la variable

 4. Seleccionar una muestra de esos indicadores.

 5. Estructurar el Instrumento

 6. Determinar la validez y confiabilidad del instrumento.


Ejemplos de preguntas que pueden
generar sesgos
• ¿Está de acuerdo con la decisión del gobierno de construir un
puente en [lugar]?

• Dado la cantidad de crímenes que existen hoy en día, tiene


sentido no caminar solo por las noches”

• ¿Considera usted que el gobierno no pueden aumentar la


deuda?
Hipótesis
 Dentro del análisis estadístico, existen 2 tipos de hipótesis que
pueden ser establecidas:

 • Hipótesis Nula (Ho)


o Es la hipótesis de igualdad o de no diferencia

Ho: asegura que las diferencias o asociaciones se deben a la


causalidad o al error aleatorio, son aparentes.

 • Hipótesis Alternativa (Ha)


o Representa la hipótesis de diferencia

Ha: es aquello que intentamos probar usando la evidencia, afirma


que hay diferencias o asociaciones significativas entre grupos, y éstas
son reales y no debidas al azar.
La comprobación de las hipótesis

 Para comprobar la certeza de las hipótesis se debe


realizar un procedimiento apoyado en la
estadística.
 Se utilizan pruebas diferentes de contrastes de
hipótesis
 Este hecho constituye una de las etapas esenciales
en la investigación cuantitativa.
 Se busca verificar la verdad o falsedad de la
hipótesis nula ( se intenta descartar)
Posibles contrastes estadísticos
 Bivariadas: Implican dos variables:

Diferencia entre dos grupos: T de Student, Chi cuadrada

Asociación entre dos variables: Coeficiente de correlación r de


Pearson, rho de Spearman.

 Multivariables: Implican más de dos variables

Diferencia entre 2 o más grupos: Análisis de varianza (UNIANOVA,


MANOVA, GLM)

Dependencia , asociación, predicción: Análisis factorial, regresión


lineal múltiple.
Hipótesis
Tipos de contrastes de hipótesis

Hi: Existen diferencias en la generación de consumo, atendiendo al sexo


del comprador.

 Contraste bilateral o de dos colas: es bidireccional, expresa una


relación de desigualdad o asociación entre dos variables.

Hi: consumo hombres ≠ consumo de la mujer 1≠ 2 X e Y ≠0

 Contraste unilateral: Se formula el sentido en que se van a observar


las diferencias o la asociación entre dos grupos o más

Hi: Consumo de hombres >< consumo de las mujeres

1 >< 2

X e Y es positiva (+) o negativa (-)


Pruebas de hipótesis
Relación entre
Relación entre grupos Solo descriptivo
variables

Comparar grupos Analizar la fuerza de la relación Resumen de datos

Diferencias Asociaciones Descriptivos

X2, t, F r, R2 M, DE, %
Nivel de significación (p)
 Aunque observemos a simple vista diferencias, no podemos hablar
en términos absolutos. Su comprobación debe hacerse en un
contexto probabilístico.

 Los estadísticos de contraste vienen asociados con un nivel de


significación.

 El valor p mide la probabilidad de obtener al azar un determinado


resultado, y por tanto equivocarnos al rechazar la H0.

 El valor “p” nos indica si los resultados son estadísticamente


significativos.

 La diferencia real se denomina significativa, y la aparente no


significativa.

 Cuando la diferencia es significativa se puede descartar o rechazar


la H0.
Niveles de significación
 p > .05

Las diferencias entre los grupos o asociación entre las variables no


es significativa. Por tanto, no se puede rechazar la Hipótesis nula
(H0)

 p < .05

Las diferencias o asociaciones son significativas, por lo que se


rechaza la Hipótesis nula (y se confirma nuestra hipótesis de
investigación o alternativa H1).

En estos casos, el azar tan solo explica en el 5% de los casos o


menos la diferencia o asociación entre los grupos.
Varios resultados sobre significación
Producción Científica

Método

Reporte de resultados
Estructura del informe
 Método: Diseño del estudio, muestra, instrumento, codificación y fiabilidad, etc.

Se describe el método que se seguirá para responder las preguntas o pruebas de las
hipótesis. Incluye información sobre el diseño del estudio, muestra, instrumentos, etc.

Hay que proveer la definición operacional de los conceptos y decir qué estadísticos
se utilizarán para contrastar las hipótesis.

 Resultados: Gráficos, tablas, categorías, esquemas.

Primero datos descriptivos (si es necesario) y luego inferenciales. Tablas y/o gráficos.
Hay que ofrecer un sumario de las hipótesis testadas al final de la sección.

 Discusión y conclusiones: Puesta en relación de la teoría y los resultados

Comienza con un breve sumario del problema, la teoría, método y resultados.


Diseño de investigación
Cuantitativa
VARIABLES

Variables
Variables Variables Variables
dependiente
mediadoras de Control Independientes
s
Exposición a Participación
Confianza Edad medios Política
electrónicos convencion
al
Eficacia Nivel Atención a Participación
Política Socioeconómi medios Política no
co electrónicos convencion
al
Interés
Genero Participación
Política
Conocimient mixta
o
Religión
Sofisticación
Política
Municipio

Escolaridad
Modelo teórico

Zona
Nivel Variables
Edad Genero Religión Geográfi
Socioeconómico de Control
ca
Variables Variables Variables
Independientes mediadoras dependientes

Confianza Participación
Exposición a medios Política
Eficacia convencional
electrónicos Política
Participación
Atención a medios Interés Política no
electrónicos convencional
Conocimiento Participación
Política mixta
Sofisticación
Política

Consumo de medios Participación


electrónicos Política
Modelo Teórico
Iconos de tipo de datos y nivel de
medida
Codificación de variables
Codificar datos es asignar números a las modalidades
observadas o registradas de las variables que
constituyen la base de datos, así como asignar código
(valor numérico) a los valores faltantes (aquellos que no
han sido registrados u observados).

Ejemplo: Si la base de datos incluye la variable Sexo,


hay que asignar un número a las mujeres y otro a los
hombres.
Codificación
Captura
Vista de variables en SPSS
Escalas de medición
Prueba Chi Cuadrado (X2)
Es una prueba estadística para evaluar hipótesis acerca de
la relación entre dos variables categóricas, pertenecientes a
un nivel de medición nominal u ordinal

Ho: Independencia de variables


Hi: Variables relacionadas

El nivel de significancia se puede calcular con tres métodos:


1. Asintótico: Si la muestra tiene más de 20 elementos y
menos del 20% de las casillas tienen frecuencias
esperadas menor que 5
2. Montecarlo: No hay que cumplir los anteriores si la
muestra es mayor a 30
3. Exacto: No hay que cumplir los anteriores
Chi cuadrado
 Como X2 no indica la relación, ni magnitud de la asociación de las variables
hay que usar estadísticos según el tipo de tablas presentes del estudio.

 Tabla 2 x 2: Coeficiente de Phi, V de cramer y riesgo

 Tabla J x K: Coeficiente de contigencia o V de cramer

 Tabla 2 x 2: El riesgo indica el tamaño del efecto (2x2)

 Tabla 2 x 2: Coeficiente de Phi

Valor entre 0 y Raiz q – 1: siendo q el numero de modalidades de la variable que


tenga menos de ellas

 Tabla 2 x 2: V de cramer

Valor entre 0 (independencia) y 1 (dependencia)


Pruebas de Hipótesis T student
paramétricas
 Cuando tengamos que evaluar la asociación entre una variable
categórica (o nominal) y una variable cuantitativa, el
procedimiento es analizar y comparar las medias de la distribución
de la variable cuantitativa en cada uno de los grupos que
conforma la variable categórica.

 Si la variable cualitativa sólo tiene dos categorías (por ejemplo la


variable sexo) el procedimiento se reduce a comparar las medias
de la variable cuantitativa en esos dos grupos (hombres y mujeres
en el ejemplo).

 El contraste de hipótesis es la t de Student, para comparar las


medias (de la variable contínua) en dos grupos independientes,
que en SPSS está en: Analizar > Comparar medias > Prueba t para
dos muestras independientes
 Si la variable categórica tiene tres o más categorías
(por ejemplo la variable raza con las siguientes
mediciones: blanca, negra, otras) el procedimiento
también consiste en comparar las medias de la
variable cuantitativa en cada uno de los grupos que
conforma cada estrato o categoría de la variable
nominal, pero el procedimiento ya no es la t de
Student sino un modelo matemático más amplio: el
Análisis de la Varianza (ANOVA), que va a permitir no
sólo saber si hay diferencias en las medias en los
diferentes grupos sino explorar entre qué grupos
concretos están o no esas diferencias (a través de los
llamados “contrastes a posteriori”). El análisis en SPSS
está en: Analizar > Comparar medias > ANOVA de un
factor
Requisitos: Tanto la t de Student como el ANOVA, es que son muy
exigentes sobre una serie de requisitos en la distribución de la variable
cuantitativa que está evaluando; en concreto sobre dos aspectos:

a) La variable cuantitativa debe distribuirse según la Ley Normal en cada


uno de los grupos que se comparan (CRITERIO DE “NORMALIDAD”).

b) Las varianzas de la distribución de la variable cuantitativa en las


poblaciones de las que provienen los grupos que se comparan deben ser
homogéneas (CRITERIO DE HOMOCEDASTICIDAD).

Aunque puede asumirse que se cumple para muestras grandes (n > 100),
debe explorarse siempre, con gráficos y pruebas de normalidad. En SPSS las
pruebas de normalidad más completas están en la opción “EXPLORAR” y al
que se llega con la rutina: Analizar > Estadísticos Descriptivos > Explorar

Con respecto al segundo requisito para aplicar estos contrastes (ANOVA y t


de Student), es menos exigente, y existen alternativas para hacer el
contraste. Así veremos que en SPSS hay una lectura de la prueba
“asumiendo varianzas desiguales”.

Cuando estos requisitos se incumplen hay que recurrir a las PRUEBAS NO


PARAMÉTRICAS, que en SPSS están en: Analizar > Pruebas no paramétricas >
2 muestras independientes (ó k muestras independientes)
Resultado descriptivos

Primero se muestra un resumen de los casos


(individuos) que se van a explorar o
procesar.

Luego un cuadro resumen con la


estadística descriptiva de la variable
cuantitativa (el dependiente para el
programa SPSS) en cada uno de los grupos
establecidos por las diferentes categorías e
la variable cualitativa (el factor para el
programa SPSS).

En esta salida podemos ver un aspecto muy


interesante: los IC95% para la media en
cada grupo, una forma alternativa al
contraste de hipótesis clásico para tomar
decisiones sobre la relación entre variables
Se observa que, tanto la estimación puntual de la media de la variable “edad” en ambos grupos (48,70 vs
50,24) como sus intervalos de confianza son diferentes, por lo que es altamente improbable que las variables
edad y obesidad estén relacionadas en la población (lo que conllevaría a que las edades medias en ambos
grupos fueran muy diferentes).
Pruebas de normalidad
Posteriormente, se nos muestra las pruebas de normalidad que
lleva a cabo el programa SPSS. Nos hemos de fijar en la
significación estadística de estos dos contrastes, asumiendo la
normalidad de la distribución si en ambos grupos el nivel de “p” es
no significativo (esto es, p>0,05). En nuestro ejemplo podemos
asumir la normalidad de la variable cuantitativa “edad” en
ambos grupos (“obesos” / “no obesos”).
Gráficos Q-Q normales
Box-plot
En el box-plot tenemos una representación gráfica de la distribución de la variable
cuantitativa (edad) en los dos grupos establecidos por la variable cualitativa
(obesidad), y nos sirve para una aproximación visual al contraste de hipótesis, que
planteará como hipótesis nula (H0) “que no son diferentes las medias de edad en
estos grupos”. Como puede verse en nuestro ejemplo, las
edades medias en el grupo “no obeso”
son ligeramente mayores que en el grupo
“obeso”, pero las medianas son idénticas
y un amplio porcentaje de individuos (los
situados dentro de cada caja, el 50% de
cada muestra) tienen unas edades muy
parecidas.
Con lo ya visto hasta ahora tenemos una
aproximación inferencial sin necesidad de recurrir
al contraste. Tanto el análisis de los intervalos de
confianza de las medias como el estudio de los
gráficos de caja nos permiten una evaluación de
hasta qué punto pueden estas dos variables estar
relacionadas en la población de la que proviene
la muestra. Es muy probable que no estén
asociadas. Pero para completar el análisis
inferencial debemos recurrir al contraste de
hipótesis.
Procedimiento
Debemos seleccionar la variable a contrastar (variable cuantitativa), en
nuestro caso “edad”, y la –la variable categórica dicotómica, en
“obesidad”, a la que habrá que “definir grupos” activando la casilla
correspondiente (mientras tanto aparecen en la ventana unos signos de
interrogación entre paréntesis)

Si usamos los “valores especificados” anotaremos en cada grupo los


valores con los que está recogida cada categoría de la variable
categórica en nuestra base de datos (en nuestro ejemplo 1 = obeso; 2 = no
obeso).

La salida del programa es:

Primero se muestran los estadísticos resumen en cada grupo: N (tamaño), media, desviación típica
y el error estándar de la media.
Resumen de información
prueba T no paramétricas
 Una prueba de homogeneidad de varianzas (la prueba de Levene), que nos va a
informar sobre el segundo requisito para aplicar la comparación de medias mediante
la prueba t de Student: la homogeneidad de varianzas. El programa hace un contraste
a través del estadístico F de Snedecor y nos aporta una significación estadística, o valor
“p” asociado a la hipótesis nula de que “las varianzas son homogéneas”. Cuando ese
valor “p” es significativo (p<0,05) debemos dudar de la homogeneidad de varianzas.

 Una doble salida de la comparación de medias en los dos grupos, expresada en dos
filas de la ventana: o en la fila superior la salida es cuando se han asumido varianzas
iguales en el contraste anteriormente comentado (o prueba de Levene); o en la línea
inferior los resultados son los que habría que elegir cuando no se han asumido varianzas
iguales, esto es, cuando la prueba de Levene en el paso anterior es significativa
(p<0,05). El programa hace en este caso una “variante” de la t de de Student,
aplicando -para construir el estadístico de contraste- una varianza promediada entre
las varianzas de cada grupo.
La prueba T propiamente dicha, “para la igualdad de medias” nos da diversa información:

El valor de T (t), los grados de libertad del estadístico (gl) y, lo más importante, el valor de “p” (Sig. Bilateral)
asociado al contraste

El valor de la diferencia de medias entre los dos grupos, su error típico, y el intervalo de confianza al 95% de dicha
diferencia de medias, que nos da una información sobre cuán diferentes son las medias en la población, no sólo
mediante una estimación puntual sino también a través de un intervalo de valores que tiene una elevada
probabilidad de contener la verdadera diferencia de medias. Esta información también es útil para comprender si
las medias son o no diferentes entre ambos grupos, aportando además datos para conocer con cuánta precisión
estamos estimando: un intervalo de confianza que contenga el valor cero supone que no hay diferencias en las
medias de ambos grupos, y si su recorrido (rango entre el valor superior e inferior) es pequeño estamos diciendo
que esta estimación es bastante precisa.

En el ejemplo la prueba de Levene no es significativa (p = 0,604), por lo que asumimos la homogeneidad de


varianzas y leemos la t de Student en la fila superior (“se han asumido varianzas iguales”): el estadístico t vale -1,004
(con 48 grados de libertad) y el valor”p”asociado es 0,32. Conclusión: “No hay asociación entre la edad y la
obesidad, ya que la media de edad de obesos y no obesos no son estadísticamente diferentes al nivel de
significación alfa = 0,05)”.

Por otra parte, si interpretamos la diferencia de medias de edad entre ambos grupos, ésta se situaría en la
población, con una elevada confianza, entre -4,619 y +1,542 años. Es una estimación algo imprecisa (unos cinco
años arriba o abajo) y contiene el valor “cero”, que nos hace llegar a la misma conclusión: por la variabilidad del
muestreo (error aleatorio) es posible explicar las pequeñas diferencias de medias de edad (1,53 años) encontradas
en nuestro estudio, por lo que debemos asumir la no-diferencia de medias de edad en la población.
Ejemplo 2:
Como en el ejercicio anterior, lo primero es comprobar si se dan
los requisitos para aplicar las pruebas paramétricas, basadas en la
media y la varianza. Esto es, hay que explorar cómo es la
distribución de la variable “PAS” en cada grupo determinado por
la variable “obesidad”, solicitando pruebas de normalidad que
nos permitan tomar una decisión.

Como siempre, primero un resumen de los casos (individuos) explorados, e inmediatamente un


cuadro con los estadísticos más importantes que recogen información de la variable cuantitativa
(dependiente para SPSS) en cada grupo de estudio según los niveles o estratos de la variable
categórica introducida como factor.
Como podemos ver en el cuadro resumen de
estadísticos, la media de PAS en los dos
grupos de comparación (“obesos” / “no
obesos”) es más elevada en el grupo de no
obesos (144,95 con un IC95% entre 131,15 y
158,73) que en el grupo de obesos (125,97
con un IC95% entre 119,47 y 132,47). La
diferencia puntual de estas medias es: 144,95
– 125,97 = 18,98
... ¡casi 19 mm de Hg más alta en no obesos!;
y los IC95% de las medias en ambos grupos se
superponen en un rango muy corto (el que va
desde 131,15 a 132,47).

Es probable que ambas medias sean


estadísticamente diferentes y que podamos
concluir que las dos variables (PAS y
Obesidad) están asociadas en la población
de la que proviene la muestra.

El programa nos muestra ahora las pruebas


de normalidad, para tomar una decisión
sobre la adecuación de los test paramétricos
a la comparación de medias.
Pruebas de normalidad
Ambas pruebas de normalidad
muestran que en el grupo “obeso” la
variable PAS no se distribuye según
una Ley Normal, ya que la ”p”
asociada a los contrastes de K-S
(0,001) y S-W (0,036) da por debajo
del nivel de significación alfa
prefijado (0,05). Esto nos obligará a
tomar un camino diferente en el
análisis de la relación entre estas dos
variables, optando por pruebas no
paramétricas.
Si solicitamos un gráfico de caja para la distribución de la
variable PAS en cada grupo de la variable obesidad,
obtendremos una imagen como la que se acompaña,
donde llama la atención una mayor dispersión de los
valores de TAS en el grupo “no obeso” y una tendencia,
así mismo, a mostrar valores más elevados de PAS en este
último grupo.

Llegados a este punto, si deseamos hacer un contraste de


hipótesis para evaluar hasta qué punto las medias de PAS
son diferentes, debemos optar por una de las Pruebas no
paramétricas > (para...) 2 muestras independientes, con el
casi convencimiento de que el test va a ser
estadísticamente significativo.
Pruebas no parámetricas
Una vez seleccionada la opción no paramétrica y para dos muestras
independientes, el cuadro de diálogo del SPSS es el que sigue: Es muy parecido a la
que hemos visto en Comparar medias > Prueba T para muestras independientes: en
las ventanas hay que seleccionar al menos una variable a (la cuantitativa) y una
variable de agrupación (la categórica), que debe servir para Definir grupos...

Se pueden elegir entre varios Tipo de prueba, siendo la más común la “U de Mann-
Whitney”, señalada por defecto en el programa SPSS. Tras aplicar, la salida es la
siguiente:

Lo que debemos interpretar es la Sig. Asintótica (bilateral), que en nuestro caso vale
0,017 y lleva a concluir que se rechaza la hipótesis nula de que “la media de PAS es
similar en ambos grupos”; o lo que es alternativamente igual, “que existe una
asociación estadísticamente significativa entre la PAS y la Obesidad)”.
Coeficiente de correlación r de Pearson

 Asociación lineal entre dos variables (de intervalo o razón).

 Diagrama de dispersión.

 Covarianza (=sxy).

 Signo y fuerza de la asociación.

 Coeficiente de determinación (=r2) y varianza explicada (=r2 x


100).

 Ojo! Correlación no es causación.


Cálculo MANUAL del coeficiente de
correlación de Pearson (2)

Signo: forma
de la relación
(+, -)

Valor numérico:
fuerza o magnitud
de la relación (-1,
+1)
Cálculo MANUAL del coeficiente de
correlación de Pearson (1)
9

8 9; 8

7 7; 7

5 4; 5
Y

3 2; 3

1 0; 1

0
0 2 4 6 8 10
X

Ecuación de la línea recta: y = a + bX


Análisis de correlaciones bivariadas y parciales con
SPSS

Cuando se desee evaluar el grado de asociación o independencia de


dos variables puede recurrirse tanto a técnicas de regresión como a
técnicas de correlación. Por lo tanto tenemos que diferenciarlas, en el
análisis de correlación se utiliza para establecer las relaciones entre dos
variables, mientras que en el análisis de regresión se busca identificar la
intensidad o fortaleza de esa relación.

El primer paso para determinar la relación de dos variables es a través de


observar un diagrama de dispersión, esta representación gráfica es
fundamental ya que existen relaciones no lineales entre las variables.

Adicionalmente para poder analizar la relación lineal entre dos variables


utilizaremos los diferentes tipos de coeficientes de correlación, tomando
en cuenta las principales características de cada tipo de variables. Con
respecto a la hora de interpretar en forma adecuada la relación de
variables, se debe considerar dentro de los aspectos más importantes, su
magnitud, el signo y su nivel de significancia.
Diagramas de Dispersión
 La representación gráfica en el que una de las variables se
encuentra en el eje de las abscisas (X) y la otra en el eje de
las ordenadas (Y) se denomina diagrama de dispersión, el
cual nos permite tener una idea del tipo de relación que
existe entre esas variables.

 Cada punto de la gráfica representa tiende a situarse en una


recta diagonal cuando tenemos una relación, y cuando no
tiene una dirección clara se establece que no hay relación.
SPSS Gráficas de dispersión
Variable

El índice de Gini es la medida de desigualdad de ingresos más usada.


Ejemplos (Relación positiva)
Relación negativa
Coeficiente de correlación de
Pearson
La correlación de Pearson es un método paramétrico, que asume una
distribución normal de los datos y una asociación lineal entre las variables
X y Y. El coeficiente de correlación de Pearson provee una descripción
global de la relación entre variables aleatorias X y Y. en algunas
situaciones prácticas, hay una fuerte correlación para algunos de los
valores X y/o Y y una débil correlación para otros valores X y/o Y.

Coeficiente Interpretación

r=1 Correlación perfecta

Mayor que 0.80 Muy fuerte

Entre 0.60 y 0.80 Fuerte

Entre 0.40 y 0.60 Moderado

Entre 0.20 y 0.40 Baja

Entre 0 y 0.20 Muy baja

r=0 Nula
Conceptos importantes

 Prueba de significación. Junto con cada coeficiente


de correlación, el Visor ofrece la información
necesaria para contrastar la hipótesis nula de que el
valor poblacional del coeficiente es cero.
 Bilateral:
Probabilidad de obtener resultados tan
extremos como el obtenido, y en cualquier dirección,
cuando la hipótesis nula es cierta.
 Unilateral: Probabilidad de obtener un resultado tan
extremo como el observado, y en la misma dirección,
cuando la hipótesis nula es cierta.
 Marcar las correlaciones significativas. Esta opción,
que se encuentra activa por defecto, Marca con un
asterisco los coeficientes de correlación significativos
al nivel 0,05 y, con dos asteriscos, los significativos al
nivel 0,01.
Coeficiente de correlación de Pearson

Tipos de Coeficiente de correlación:


a. Pearson (ᵣ): usado con datos cuantitativos.
b. Spearman rho (rˢ): usado con datos ordinales.
c. Kendall’s tau (τ): usado con datos ordinales.
d. Coeficiente Phi (r ): usado con datos nominales.
El subcuadro “opciones” permite solicitar estadísticos adicionales y
determinar el tratamiento de los valores perdidos.
Ejemplo
Ejemplo
Interpretación de los resultados
Correlaciones Parciales

Las correlaciones parciales nos permiten observar la relación lineal


existente entre dos variables controlando el posible efecto de una o más
variables extrañas. Por ejemplo se puede utilizar cuando queremos
neutralizar los efectos de las variables de control del estudio
Correlaciones Parciales

La correlación parcial de primer orden es una estimación de la


correlación entre dos variables después de controlar una
variable. La correlación parcial de segundo orden es una
estimación de la correlación entre dos variables después de
controlar una segunda variable, esto se repite con cada
variable que se requiera controlar.

S-ar putea să vă placă și