Sunteți pe pagina 1din 113

ANALISIS DE DATOS

ESTADSTICA DESCRIPTIVA
E INFERENCIAL

CONCEPTOS BSICOS DE ESTADSTICA

POBLACIN: es el conjunto de todos los elementos que cumplen


ciertas propiedades, entre las cuales se desea estudiar un determinado
fenmeno UNIVERSO

SEGN LA FINITUD:

Poblacin finita: se conoce el nmero exacto de todos los elementos que


componen el conjunto

Poblacin infinita: en el supuesto que no se puedan conocer todos los elementos


que componen el conjunto

SEGN LA MUESTRA ESCOGIDA

Poblacin objeto: es aquella en la que se desea estudiar cierta informacin

Poblacin inferencial: es aquella para la cual se hacen inferencias, no


necesariamente vlidas

ESCALAS DE MEDIDA NIVELES DE MEDIDA DE LAS VARIABLES*

CONCEPTOS BSICOS DE ESTADSTICA

MUESTRA: si la poblacin es un conjunto, la


muestra es un subconjunto de sta.

INDIVIDUO: se identifica al individuo de una


poblacin o de una muestra como cada uno de los
elementos que la componen y de los cuales
obtenemos cierta informacin mensurable del
fenmeno que se desea estudiar.
Podemos considerar individuo un ser humano, un
animal, o un evento, por ejemplo acudir a
consulta, etc.

CONCEPTOS BSICOS DE ESTADSTICA


CARCTER: es la propiedad o cualidad que presentan los
elementos de una poblacin que se desea estudiar

Caracteres cualitativos: son aquellos que no pueden medirse


numricamente, es decir, que no pueden cuantificarse.

Caracteres cuantitativos: son aquellos que pueden medirse


numricamente, es decir, pueden cuantificarse
Modalidad o clase de un carcter: son las distintas formas en
las que dicho carcter puede presentarse.
Ej: el carcter sexo presenta dos modalidades hombre y mujer.

CONCEPTOS BSICOS DE ESTADSTICA


La frecuencia absoluta de una modalidad de un carcter es
el nmero de elementos en estudio que presentan esa
modalidad de ese carcter.
La frecuencia relativa de una modalidad de un carcter es el
cociente entre la frecuencia absoluta de dicha modalidad y
el nmero total de elementos que constituyen la muestra.
Porcentaje de una modalidad: se obtiene multiplicando la
frecuencia relativa por 100.

NIVELES DE MEDIDA DE LAS VARIABLES

Medicin supone establecer una regla para hacer


corresponder los nmeros con las formas en las que se
presenta una caracterstica de los objetos o individuos.
Con niveles de medida nos referimos a las formas en que se
emplean los nmeros:

Nominal: asignar nmeros supone etiquetar o poner nombres.


Los objetos difieren entre s.
Ordinal: establecemos una ordenacin, creciente o decreciente,
entre los objetos. Sabemos que es mayor o menor, pero no
cunto.
Intervalo: las distancias numricas iguales suponen distancias
idnticas respecto a la cualidad que se est midiendo.
Razn: a las caractersticas del nivel de medida de intervalo, se
aade la existencia del cero absoluto (cero supone ausencia de
rasgo medido), no hay valores negativos.

ESCALAS DE MEDIDA
ESCALAS DE
MEDIDA

OPERACIONES
LGICAS

CONDICIONES

ESTADSTICOS
APLICABLES

Nominal

Establecer la igualdad
o desigualdad

Permutacin

Frecuencias
Moda
Coefic. De contigencia

Ordinal

Determinar lo >, lo =,
o lo <

Mantenimiento del
orden

Mediana
Percentiles
Correlacin lineal

De intervalo

Determinar la
igualdad o diferencia
de intervalo

Unidad constante

Media aritmtica
Desviacin tpica
Correlaciones

De razn o
proporcin

Establecer igualdad
de razones

Cero absoluto

Media geomtrica
Media armnica
Coeficiente de variacin

ANLISIS VALIDEZ Y
FIABILIDAD DE LA MEDIDA

Anlisis de la Fiabilidad

La precisin o fiabilidad de una medida: ausencia de variabilidad.


Una medicin es fiable cuando se obtienen resultados iguales en
mediciones sucesivas.
Medicin de temperatura: 36, 30, 40 (no es fiable).
Orgenes de la variabilidad:
1.Variabilidad atribuible al procedimiento (instrumentos, pruebas,
cuestionarios, etc).
2.Variabilidad debida a discrepancias entre los observadores (variaciones
interobservador e intraobservador).
3.Variabilidad por cambios en las caractersticas sometidas a medicin
(variaciones biolgicas, conductuales, ambientales, etctera),
La fiabilidad se valora realizando dos o ms mediciones independientes del
mismo atributo y comparando luego los hallazgos.

Anlisis de la Fiabilidad

La fiabilidad de las medidas utilizadas ha de analizarse cuando se aplique una


forma de medicin nueva.
Se deben realizar esfuerzos para hacer ms fiable la informacin recogida,
pero ms que intentar conseguir una fiabilidad total, se debe poder cuantificar
el grado de error cometido en la medicin.
Cuando en el diseo de un estudio se planifique la medicin de las variables
seleccionadas, se deben adoptar medidas para conseguir una mnima
variabilidad en los resultados.
Cmo?:
- definiciones operativas claras,
- instrucciones precisas sobre la recogida de informacin,
- entrenamiento de los observadores,
- procedimientos de medidas estndar previamente utilizados y
- tcnicas de enmascaramiento.

Anlisis de la Fiabilidad en variables


cualitativas
Analizar/ Estadsticos descriptivos / Tablas de Contingencia / ndice Kappa de
Cohen + coeficiente de contingencia + prueba Chi-cuadrado

Coincidieron 20
negativos en el test1
tb son negativos en
el test2.
20 + en test 1
tambin son + en el
test2.
Tuvo en total 40
coincidencias (20 ++
y 20 --) y 10 no
coincidencias (5+- y
5 -+)

No coincidieron 5 +
en test 1 despus
en test 2 son
negativos
No coincidieron 5
negativos en test 1
despus en test 2

Anlisis de la Fiabilidad en variables


cualitativas
Analizar/ Estadsticos descriptivos / Tablas de Contingencia / ndice Kappa de
Cohen + coeficiente de contingencia + prueba Chi-cuadrado (es una binomial 2x2)

Chi-cuadrado indica si una medicin coincide con la otra o no.

Anlisis de la Fiabilidad en variables


cuantitativas
Analizar/ Escalas / Anlisis de fiabilidad

La matriz de correlaciones indica que existe una alta relacin entre las mediciones, o
sea que existe escasa variabilidad, por lo que mis 5 mediciones han sido muy fiables.

Anlisis de la Fiabilidad en variables


cuantitativas
Analizar/ Escalas / Anlisis de fiabilidad

VALIDEZ Y FIABILIDAD
DE LA ESCALA DE MEDIDA
Anlisis de la Variabilidad
(varianza) de una medicin

Medida de adecuacin muestral de KaiserMeyer-Olkin.

,752

Prueba de esfericidad
de Bartlett

Chi-cuadrado
aproximado

64,101

gl

10

Sig.

,000

Identificar
un
pequeo
nmero de factores que
explique la mayora de la
varianza observada.
Componente

1
PRETEST dolor
cabeza-cuello

,771

PRETEST dolor
columna dorsal

,773

PRETEST dolor
columna lumbar

,589

PRETEST dolor
MM.II.

,555

PRETEST dolor
MM.SS.

,852

Analizar/ Reduccin de datos / Anlisis factorial /


KMO y prueba de esfericidad de Barlett

Kaiser-Meyer-Olkin contrasta si las


correlaciones
parciales
entre
las
variables son pequeas (% de varianza
en mis variables generada por esos
factores).
La prueba de esfericidad de Bartlett me
indica si mis variables estn relacionadas
o no.
Grfico de sedimentacin: varianza
asociada a cada factor. Tpicamente
muestra la clara ruptura entre la
pronunciada pendiente de los factores
ms importantes y el descenso gradual
de los restantes (los sedimentos).

ESTADSTICA DESCRIPTIVA
UNIVARIANTE

ESTADSTICA DESCRIPTIVA

Una distribucin de frecuencias consiste en


presentar deforma ordenada todos los valores que
contiene la variable objeto de estudio, as como la
frecuencia con que aparecen

En el SPSS:
Analizar/ Estadsticos descriptivos/ Frecuencias

ESTADSTICA DESCRIPTIVA

Una serie de datos quedan perfectamente definidos si se dan sus tablas de


frecuencias o se realizan unas representaciones grficas adecuadas.

A veces es ms simple y suficientemente representativo obtener unas


medidas que los resuma.

A tales medidas se les denomina medidas de distribucin de frecuencias.

medidas de tendencia central,

medidas de posicin,

medidas de dispersin y

medidas de forma.

ESTADSTICA DESCRIPTIVA
MEDIDAS DE
TENDENCIA
CENTRAL
Media
Mediana
Moda

MEDIDAS DE

MEDIDAS DE
DISPERSIN o

MEDIDAS

VARIABILIDAD

DE FORMA

Desviacin tpica
Varianza
Amplitud

POSICIN
Mediana
Cuartiles
Deciles

Asimetra
Curtosis

Centiles
Percentiles

Analizar/ Estadsticos descriptivos/ Frecuencias


Analizar/ Estadsticos descriptivos/ Descriptivos
Analizar/ Estadsticos descriptivos/ Explorar

MEDIDAS DE TENDENCIA CENTRAL

MEDIA: se define como el valor obtenido como


resultado de sumar todas las puntuaciones y
dividir por el nmero de las mismas.
Para su clculo, los datos han de estar medidos, al
menos, en una escala de intervalo.
Estadsticos

Solo para variables cuantitativas.

rea_de_contacto_pi_izquierdo
N
Vlidos
48
Perdidos
0
Media
126,6731
Mediana
124,2000
Moda
80,08a
Suma
6080,31
a. Existen varias modas. Se
mostrar el menor de los valores.

MEDIDAS DE TENDENCIA CENTRAL


MEDIANA: es el valor perteneciente o no a la muestra que divide en dos partes iguales un
conjunto de puntuaciones.
Deja tantas observaciones por debajo como por encima de l.
Es el percentil 50
Su clculo es posible cuando los datos se miden en escala ordinal, al menos (variables
cuantitativas).
La mediana en un nmero de datos impar, corresponde al valore central .
Cuando el nmero de observaciones es par, la mediana es el promedio de las dos
observaciones centrales.
La mediana es una medida de tendencia central que
no es sensible a los valores atpicos (a diferencia de la
media).

Estadsticos
rea_de_contacto_pi_izquierdo
N
Vlidos
48
Perdidos
0
Media
126,6731
Mediana
124,2000
Moda
80,08a
Suma
6080,31
a. Existen varias modas. Se
mostrar el menor de los valores.

MEDIDAS DE TENDENCIA CENTRAL


MODA: es el valor que ms se repite dentro de un
conjunto de puntuaciones.
Valor con mayor frecuencia absoluta.
Si varios valores comparten la mayor frecuencia de
aparicin, cada una de ellas es una moda.
SPSS da la + pequea de esas modas mltiples.
Se calcula con cualquiera de los
niveles de medida (variables cualitativas o cuantitativas).

Estadsticos
rea_de_contacto_pi_izquierdo
N
Vlidos
48
Perdidos
0
Media
126,6731
Mediana
124,2000
Moda
80,08a
Suma
6080,31
a. Existen varias modas. Se
mostrar el menor de los valores.

MEDIDAS DE TENDENCIA CENTRAL

Suma: es la suma o total de todos los


valores, a lo largo de todos los casos que
no tengan valores perdidos .

Estadsticos
rea_de_contacto_pi_izquierdo
N
Vlidos
48
Perdidos
0
Media
126,6731
Mediana
124,2000
Moda
80,08a
Suma
6080,31
a. Existen varias modas. Se
mostrar el menor de los valores.

MEDIDAS DE TENDENCIA CENTRAL

La mediana es menos sensible que la media a la variacin de las observaciones


muestrales.

La media est muy influenciada por observaciones muy grandes o muy pequeas con
relacin a las restantes que componen la muestra, y sin embargo la mediana no.

La mediana es el fundamento de diversas tcnicas estadsticas, pero el nmero de


estas es mucho menor que el de las tcnicas basadas en la media .

La mediana es ms recomendable que la media cuando la distribucin de frecuencias


es muy asimtrica, es decir, cuando existen una o muy pocas observaciones en uno de
los extremos.

La media no debe ser calculada cuando las observaciones no sean numricas.

La moda tiene el inconveniente de no ser necesariamente nica.

En el caso de variables cualitativas y dado que este tipo de datos no permite el clculo
ni de la media ni de la mediana, el clculo de la moda es forzoso.

Las unidades en que vienen expresadas la media, mediana y moda corresponden a las
de la variables en estudio.

MEDIDAS DE DISPERSIN
Indican si los valores de las observaciones (si los valores de las
modalidades de un carcter) se encuentran muy prximas entre s
o muy dispersas.
Ejemplo: podemos obtener una media de 5 con los siguientes datos:
5,6,4,5,5. Pero tb con: 10,5,1,2,7. en el segundo caso diremos que hay
mayor variabilidad. pero como podemos medir la variabilidad?

DESVIACIN TPICA: es la raz cuadrada de la varianza.

VARIANZA: suma de los cuadrados de las desviaciones respecto a la media


dividida por el nmero de casos menos 1.
Es el promedio de las desviaciones de las
puntuaciones respecto a la media aritmtica.
Analizar/ Estadsticos descriptivos/ Frecuencias
Analizar/ Estadsticos descriptivos/ Descriptivos
Analizar/ Estadsticos descriptivos/ Explorar

MEDIDAS DE DISPERSIN

AMPLITUD: es la diferencia entre el valor mximo y el


mnimo de un conjunto de puntuaciones.

Mnimo. Valor ms pequeo de una variable numrica.

Mximo. El mayor valor de una variable numrica.

Error Tpico de la media. Medida de cunto puede variar el


valor de la media de una muestra a otra, extradas stas de
la misma distribucin.
Analizar/ Estadsticos descriptivos/ Frecuencias
Analizar/ Estadsticos descriptivos/ Descriptivos
Analizar/ Estadsticos descriptivos/ Explorar

MEDIDAS DE DISPERSIN

Todas las medidas de dispersin son siempre positivas .

Todas las medidas de dispersin se anulan cuando todas las observaciones


muestrales son idnticas.

La amplitud presenta el inconveniente de utilizar nicamente dos


observaciones: las dos ms extremas.

La varianza tiene el inconveniente de tener como unidades las de la variable


original al cuadrado. Esta es la razn por la que se emplea la desviacin
tpica.

La varianza y la desviacin tpica son muy sensibles a la variacin de cada


una de las observaciones, ya que su valor depende de todos y cada uno de
los valores de los datos obtenidos en la muestra .

La varianza y la desviacin tpica son fundamentos de muchas tcnicas


estadsticas.

No se recomienda el uso de la varianza o de la desviacin tpica en aquellos


casos en los que no se recomiende el uso de la media como medida de
tendencia central.

MEDIDAS DE FORMA

Estas medidas nos informan sobre la distribucin de las


puntuaciones
Describen la forma y la simetra de mi distribucin de datos.
Dos medidas: (asimetra y curtosis)

ASIMETRA:

Si valores de media, mediana y moda coinciden distribucin simtrica


Cuando se alejan hacia la izda asimetra negativa
Hacia la dcha asimetra positiva
Estadsticos

Analizar/ Estadsticos descriptivos/ Frecuencias


Analizar/ Estadsticos descriptivos/ Descriptivos
Analizar/ Estadsticos descriptivos/ Explorar

rea_de_contacto_pi_izquierdo
N
Vlidos
Perdidos
Asimetra
Error tp. de asimetra
Curtosis
Error tp. de curtosis

48
0
,173
,343
,077
,674

MEDIDAS DE FORMA

ASIMETRA:

Una distribucin que tenga una asimetra positiva significativa tiene una
cola derecha larga.
Una distribucin que tenga una asimetra negativa significativa tiene una
cola izquierda larga.
Un valor de la asimetra mayor que el doble de su error tpico se asume
que indica una desviacin de la simetra.
Cuando al trazar una vertical, en el diagrama de barras o histograma, de
una variable (discreta o continua) por la media, esta vertical es el eje de
simetra, la distribucin es simtrica.
Simtrica, cuando a ambos lados de la media aritmtica haya el mismo
n de valores de la variable, equidistantes de dicha media dos a dos, y
tales que cada par de valores equidistantes tiene la misma frecuencia
absoluta.

MEDIDAS DE FORMA

Clculo de la ASIMETRA:

coeficiente de FISHER (g1):

Si g1 > 0 la distribucin ser asimtrica positiva o a derechas


(desplazada hacia la derecha).
Si g1 < 0 la distribucin ser asimtrica negativa o a izquierdas
(desplazada hacia la izquierda).
Si g1 = 0 la distribucin ser simtrica.

coeficiente de PEARSON (Ap):

solo es cierto cuando la distribucin


tiene las siguientes condiciones: Unimodal,
campaniforme y moderada o ligeramente asimetrica.

MEDIDAS DE FORMA

CURTOSIS:
Medida del grado en que las observaciones estn agrupadas en torno al
punto central
Nos indica el apuntamiento o escarpamiento de la distribucin de
puntuaciones.

Estadsticos
rea_de_contacto_pi_izquierdo
N
Vlidos
Perdidos
Asimetra
Error tp. de asimetra
Curtosis
Error tp. de curtosis

Analizar/ Estadsticos descriptivos/ Frecuencias o


Analizar/ Estadsticos descriptivos/ Descriptivos
Analizar/ Estadsticos descriptivos/ Explorar

48
0
,173
,343
,077
,674

MEDIDAS DE POSICIN

Estas medidas nos informan de la situacin de una puntuacin respecto


al grupo en el que se encuentra includo.

Mediana: es tb una medida de tendencia central, aqu divide la distribucin de


la variable en dos partes iguales.

Cuartiles: son los 3 valores que divide en 4 partes idnticas el conjunto de


puntuaciones

Deciles: son los 9 valores que divide en 10 partes idnticas el conjunto de


puntuaciones

Centiles: es dividir la distribucin de la variable en 100 partes iguales


99 valores, pertenecientes o no a la distibucin de datos, que dividen a esta en 100
partes iguales.

Percentiles: es asignar a un valor de la variable el porcentaje de individuos


que deja por debajo de l.

Tales medidas son informacin de las m simas (por ciento, dcimas y


cuartas) partes del total de puntuaciones del grupo.

MEDIDAS DE POSICIN
Esta dsticos
edad
N
Perc entiles

Estadsticos
edad
N
Percentiles

Vlidos
Perdidos
5
25
50
75

Esta dsticos
52
0
47,30
55,00
62,00
66,75

edad
N
Perc entiles

Vlidos
Perdidos
25
50
75

52
0
55,00
62,00
66,75

Analizar/ Estadsticos descriptivos/ Frecuencias


Analizar/ Estadsticos descriptivos/ Explorar

Vlidos
Perdidos
10
20
25
30
40
50
60
70
75
80
90

52
0
50,30
54,60
55,00
55,00
57,20
62,00
64,00
65,10
66,75
68,00
70,00

MEDIDAS DE POSICIN
eda d

Vlidos

Esta dsticos
edad
N
Perc entiles

Vlidos
Perdidos
25
50
75

52
0
55,00
62,00
66,75

45
46
48
49
50
51
52
54
55
56
57
58
60
61
62
64
65
66
67
68
69
70
71
72
76
Total

Frec uencia
1
1
1
1
1
1
3
1
6
3
2
2
1
1
5
2
5
2
1
3
1
4
1
1
2
52

Porc entaje
1,9
1,9
1,9
1,9
1,9
1,9
5,8
1,9
11,5
5,8
3,8
3,8
1,9
1,9
9,6
3,8
9,6
3,8
1,9
5,8
1,9
7,7
1,9
1,9
3,8
100,0

Analizar/ Estadsticos descriptivos/ Frecuencias

Porc entaje
vlido
1,9
1,9
1,9
1,9
1,9
1,9
5,8
1,9
11,5
5,8
3,8
3,8
1,9
1,9
9,6
3,8
9,6
3,8
1,9
5,8
1,9
7,7
1,9
1,9
3,8
100,0

Porc entaje
acumulado
1,9
3,8
5,8
7,7
9,6
11,5
17,3
19,2
30,8
36,5
40,4
44,2
46,2
48,1
57,7
61,5
71,2
75,0
76,9
82,7
84,6
92,3
94,2
96,2
100,0

LA DISTRIBUCIN NORMAL

Abraham de Moivre (1667-1754)


Carl Friedrich Gauss (1777-1855)

PROPIEDADES DE LA DISTRIBUCIN NORMAL

Tiene una nica moda, que coincide con su media y su


mediana.

La curva normal es asinttica al eje de abscisas (rea total


bajo la curva es = 1)

Es simtrica con respecto a su media.

La distancia entre la lnea trazada en la media y el punto de


inflexin de la curva es igual a una desviacin tpica.

El rea bajo la curva comprendido entre los valores situados


aproximadamente a dos desviaciones estndar de la media
es igual a 0,95.

La forma de la campana de Gauss depende de los


parmetros: media y desviacin tpica

DISTRIBUCIN NORMAL ESTNDAR

Corresponde a una distribucin de media 0 y varianza 1.

CONTRASTE DE NORMALIDAD
Determina si se ajusta a una normal o no (paramtrica o no paramtrica).
Esto determina el tipo de pruebas estadsticas a desarrollar, para establecer
correlaciones o contrastar hiptesis que establezcan la existencia de una relacin
causa efecto.
Los coeficientes de asimetra de Fisher y de Pearson indican si una distribucin
se ajusta a una normal ( = 0).
Existen tres pruebas estadsticas que nos permiten determinar si una distribucin
de datos se ajusta a una normal o no:

el test de Kolmogorov-Smirnov para una muestra (en el SPSS Analizar/ Pruebas no


paramtricas/ K-S de 1 muestra) (variables cuantitativas).
El test de Kolmogorov-Smirnov con un nivel de significacin de Lilliefors (en el
SPSS Analizar/ Estadsticos descriptivos/ Explorar se abre un cuadro de dilogo en el
que podemos meternos en la pestaa grficos, una vez que entramos en grficos
marcamos la cuadrcula Grficos con pruebas de normalidad). (variables
cuantitativas).

CONTRASTE DE NORMALIDAD
Coeficiente de asimetra de Fisher
Variables
cuantitativas

Test de Kolmogorov-Smirnov

Sig. mayor de
0,05 se ajusta
a la normal.
Menor a 0,05
no se ajusta a
la normal.

Las
variables
pretest,
postest e ndice de mejora
no se distribuyen de forma
normal.

Analizar/ Pruebas no paramtricas/ K-S de 1 muestra

Tendremos
que
usar
pruebas no paramtricas
(aunque si el tamao de la
muestra es grande la
violacin
de
los
supuestos paramtricos es
tolerable.

CONTRASTE DE NORMALIDAD
Test de Kolmogorov-Smirnov

Variables
cuantitativas

La variable nmero de sesiones en todos los casos no se


distribuyen de forma normal.
Pero los grado I y grado II si se distribuyen de forma normal
Analizar/ Pruebas no paramtricas/ K-S de 1 muestra

CONTRASTE DE NORMALIDAD
Test de Kolmogorov-Smirnov con un nivel de
significacin de Lilliefors
Analizar/ Estadsticos descriptivos/ Explorar/ Grficos/
Grficps con prueba de normalidad

CONTRASTE DE NORMALIDAD
Test de Kolmogorov-Smirnov con un nivel de
significacin de Lilliefors

G
r

f
i
c
o
Q
n
o
r
m
a
l
s
i
n
t
e
d
n
c
i
a
s
d
e

r
a
_
d
e
c
o
n
t
a
c
o
_
p
i

z
q
u
i
e
r
d
o
G
r

f
i
c
o
Q
n
o
r
m
a
l
d
e

r
a
_
d
e
c
o
n
t
a
c
o
_
p
i

z
q
u
i
e
r
d
o
4
0
,
7
5
0
,5
2
D
e
s
v
.d
e
n
o
rm
a
l

N
o
rm
a
le
s
p
ra
d
o

Analizar/ Estadsticos descriptivos/ Explorar/ Grficos/


Grficps con prueba de normalidad

0
,
2
5
0
0
,
--2
0
,
2
5
48
8
0
1
0
1
2
0
1
4
0
1
6
0
1
8
0
2
0
01
01
2
0V
1
4
0
1
6
0
1
8
0
2
0
V
a
l
o
r
b
s
e
r
v
a
d
o
a
lo
rb
s
e
rv
a
d
o

REPRESENTACIN GRFICA
DE LA INFORMACIN

CONDICIONES GENERALES QUE


DEBEN CUMPLIR
Deben indicar claramente las escalas y
unidades de medida.
Deben explicarse por s solas.
Deben contribuir a clarificar el material
presentado.

GRFICO DE SECTORES
Y GRFICO DE BARRAS
Analizar/ Estadsticos descriptivos/ Frecuecias/ Grficos

Se pueden emplear en variables cuantitativas,


pero forzosamente en las cualitativas
Grfico de Sectores: Contribucin de las
partes a un todo (frecuencia o %). El ngulo
central es proporcional a la frecuencia
absoluta.

Grfico de Barras: muestra la


frecuencia de cada valor como una
barra diferente permitiendo comparar
las categoras de forma visual
(frecuencia o %).

HISTOGRAMA
Representacin de una variable cuantitativa que muestra la concentracin
relativa de los datos a lo largo de diferentes intervalos o secciones de la
escala en la que estn medidos dichos datos.
Cuentan con barras, pero se representan a lo largo de una escala de
intervalos iguales
La altura de cada barra es el recuento de los valores que estn dentro del
intervalo para una variable cuantitativa.
Los histogramas muestran la forma, el
centro y la dispersin de la distribucin.
El histograma se construye sobre unos ejes de coordenadas.
Se sealan en el eje horizontal los distintos extremos de los
intervalos de clase, y en el eje vertical las frecuencias
relativas partidas por las amplitudes de cada intervalo.
A partir de esto se construyen rectngulos yuxtapuestos,
cuyas bases son los diferentes intervalos de clase y cuya
altura es el cociente de la frecuencia relativa entre la amplitud
del intervalo.

POLGONO DE FRECUENCIAS
El polgono de frecuencias resulta de la unin mediante una lnea quebrada de
los puntos medios de las bases superiores de los rectngulos de un histograma.
No es aplicable a las variables cualitativas

CAJA Y BIGOTES

En el diagrama de cajas y bigotes presentamos los percentiles recogidos, la mediana y


los valores extremos.
La caja central registra los valores comprendidos entre los percentiles del 25 (borde
inferior de la caja) al 75 (borde superior de la caja).
La lnea negra que viene remarcada se corresponde con el percentil 50 o mediana.
Los bigotes representan los casos mximo y mnimo.
(ojo cuando aparezca un * no se corresponden con mnimo y mximo).

DIAGRAMA DE TALLO Y HOJAS

Tallo

Hojas

GRFICO DE NORMALIDAD

D
e
s
v
.d
e
n
o
rm
a
l

r00,,755
G
fic
o
Q
-n
o
rm
a
ls
in
ted
n
c
ia
s
d
e

ra
_
d
e
c
o
n
ta
c
o
_
p
izq
u
ie
rd
o

,0
0
2
5
,-0
,2
58
01
01
2
0V
4
0
1
6
01
8
02
0
a
lo
r1b
s
e
rv
a
d
o

DIAGRAMA DE BARRAS AGRUPADAS


Y BARRAS DE ERROR

GRFICO DE LNEAS
Y DIAGRAMA DE DISPERSIN

DOS DIAGRAMAS DE LNEAS SUPERPUESTOS


Y DIAGRAMA DE DISPERSIN (REGRESIN LOGSTICA)

ESTADSTICA DESCRIPTIVA
BIVARIANTE

RELACIN ENTRE
VARIABLES Y REGRESIN
330

El establecimiento de
la correlacin supone
el primer paso para
predecir una variable
a partir de la otra.

280

Incorrelacin

230
180
130
80
30
140

150

160

170

180

190

Incorrelacin

Correlacin positiva

Correlacin negativa

200

COEFICIENTES DE CORRELACIN

Si las dos variables son:

Distribuciones Paramtricas (de intervalo u ordinal):


coeficiente de correlacin de Pearson

Distribuciones No Paramtricas (de intervalo u ordinal):


coeficiente de correlacin Spearman

Analizar/ Correlaciones/
Bivariadas

Analizar/ Correlaciones/
Bivariadas

Variables Nominales: coeficiente de contingencia

Analizar/ Estadsticos descriptivos/ Tablas de contingencia

COEF. CORREL. DE PEARSON (VARIABLES


CUANTITATIVAS PARAMTRICAS)

Medida de la asociacin lineal entre dos variables .

Sus valores se encuentran comprendidos entre -1 y 1.

El signo del coeficiente indica la direccin de la relacin y su valor absoluto indica


la fuerza.

Los valores mayores indican que la relacin es ms estrecha .

Un valor positivo indica que a puntuaciones por encima de la media en una de las
variables le corresponden puntuaciones tambin por encima de la media en la otra
variable, y viceversa.

Un valor negativo seala que a puntuaciones por encima de la media en una de las
variables le corresponden puntuaciones tambin por debajo de la media en la otra
variable, y viceversa.

Un valor igual o cercano a cero indica que no existe relacin lineal entre las
variables, aunque puede existir cualquier otro tipo de relacin no lineal.

Analizar/ Correlaciones/ Bivariadas

COEF. CORREL. DE PEARSON (VARIABLES


CUANTITATIVAS PARAMTRICAS)

Analizar/ Correlaciones/ Bivariadas

COEF. CORREL. RHO DE SPEARMAN


(VARIABLES CUANTITATIVAS NO PARAMTRICAS)

Versin no paramtrica del coeficiente de correlacin de Pearson

Se basa en los rangos de los datos en lugar de hacerlo en los valores reales .

Resulta apropiado para datos ordinales, o los de intervalo que no satisfagan el


supuesto de normalidad .

El signo del coeficiente indica la direccin de la relacin y el valor absoluto del


coeficiente de correlacin indica la fuerza de la relacin entre las variables.

Los valores absolutos mayores indican que la relacin es mayor .

Es el coeficiente de correlacin de Pearson, pero aplicado despus de transformar las


puntuaciones originales en rangos.

Toma valores entre -1y 1, y se interpreta igual que el coeficiente de correlacin de


Pearson.

Se utiliza como alternativa al de Pearson cuando las variables estudiadas son ordinales
y/o se incumple el supuesto de normalidad .

Analizar/ Correlaciones/ Bivariadas

COEF. CORREL. RHO DE SPEARMAN


(VARIABLES CUANTITATIVAS NO PARAMTRICAS)

Analizar/ Correlaciones/ Bivariadas

TABLAS DE CONTIGENCIA
Entramos

en el SPSS EN Analizar/ Estadsticos descriptivos/ Tablas de

Contingencia. En el cuadro de dilogo que se abre seleccionamos la variable que


queremos que vaya en las columnas y cual en las filas. Despus entramos en la
pestaa estadsticos que nos permite 3 opciones fundamentalmente.

Permiten establecer si existe correlacin entre:

Dos

variables

cualitativas

nominales

(dicotmicas

etc).

Cualquiera de las 2 puede ir en columnas o filas.

Dos variables cualitativas ordinales. Cualquiera de las 2 puede ir


en columnas o filas.

Una variable cuantitativa y otra nominal. Mejor poner la


cuantitativa en las filas y la cualitativa en las columnas.

TABLAS DE CONTIGENCIA

Permite obtener el estadstico Chi-cuadrado.

Permite obtener correlaciones (coeficiente de correlacin de Pearson


o Rho de Spearman).

En el caso de comparar DOS VARIABLES NOMINALES pedimos el


coeficiente de contingencia.

Medida de asociacin basada en chi-cuadrado.

El valor siempre est comprendido entre 0 y 1 (tambin puede ser


negativo).

El valor 0 indica que no hay asociacin entre las variables.

Valores cercanos a 1 indican que hay gran relacin entre las variables.

TABLAS DE CONTIGENCIA

(CORRELACIONANDO DOS VARIABLES NOMINALES)

Ejemplo: matriz faltar a clase (si o no) segn sexo (26 hombres frente
a 26 mujeres).

TABLAS DE CONTIGENCIA

(CORRELACIONANDO DOS VARIABLES ORDINALES)

En el caso de comparar dos variables ordinales pedimos en


Estadsticos descriptivos/ Tablas de Contingencia/ Estadsticos

Analizar/

ordinal el

coeficiente Gamma.

Gamma es una medida de asociacin simtrica entre dos variables


ordinales cuyo valor siempre est comprendido entre -1 y 1.

Los valores prximos a 1, en valor absoluto, indican una fuerte relacin


entre las dos variables.

Los valores prximos a cero indican que hay poca o ninguna relacin
entre las dos variables.

TABLAS DE CONTIGENCIA

(CORRELACIONANDO DOS VARIABLES ORDINALES)

Ejemplo: matriz ingresos


(ninguno, escasos,
moderados o elevados)
segn edad del sujeto
(nio, adolescente, joven,
adulto joven, adulto
mediana edad).

TABLAS DE CONTIGENCIA

(CORRELACIONANDO DOS VARIABLES ORDINALES)

Ejemplo: matriz ingresos (ninguno, escasos, moderados o elevados) segn edad del
sujeto (nio, adolescente, joven, adulto joven, adulto mediana edad).

TABLAS DE CONTIGENCIA

(CORRELACIONANDO UNA VARIABLE CUANTITATIVA CONTINUA O VARIABLE


DE INTERVALO CON UNA VARIABLE CUALITATIVA NOMINAL)

Cuando una variable es categrica y la otra es cuantitativa


empleamos el estadstico Eta.

La variable categrica debe codificarse numricamente.

Eta. Medida de asociacin cuyo valor siempre est comprendido


entre 0 y 1.

El valor 0 indica que no hay asociacin entre la variable de fila (la


cuantitativa) y de columna (la cualitativa nominal).

Los valores cercanos a 1 indican que hay gran relacin entre las
variables.

Se calculan dos valores de eta: uno trata la variable de las columnas


como una variable de intervalo; el otro trata la variable de las filas
como una variable de intervalo.

TABLAS DE CONTIGENCIA

(CORRELACIONANDO UNA VARIABLE CUANTITATIVA CONTINUA O VARIABLE


DE INTERVALO CON UNA VARIABLE CUALITATIVA NOMINAL)

Ejemplo: matriz piernas (relacin entre el ngulo tibio-tarsiano anterior con el suelo
o ngulo Rebollo y la longitud del miembro inferior medida como variable nominal
dicotmica: pierna corta o larga).

TABLAS DE CONTIGENCIA
Las Tablas de Contingencia, adems de todo lo
anterior, nos permiten obtener otros muchos
estadsticos, entre ellos el NDICE KAPPA DE
COHEN que ya hemos comentado y que nos
permite calcular la FIABILIDAD DE LA
MEDICIN
CUALITATIVA.

DE

UNA

VARIABLE

ESTADSTICA INFERENCIAL

HIPTESIS ESTADSTICAS

Cuando investigamos, buscamos generalizar los resultados,


lo cual va a ser posible con la estadstica inferencial.

Partimos de hiptesis cientficas, que son traducidas a


hiptesis estadsticas.

Las hiptesis estadsticas son PROPOSICIONES ACERCA


de parmetros de la poblacin, tales como la media,
varianza, correlacin, etc.

Dos tipos de hiptesis estadsticas:

Hiptesis nula (H0): generalmente supone la negacin de la


hiptesis de contraste.

Hiptesis alternativa (H1): supone la afirmacin de la hiptesis


que deseamos someter a contraste.

Porejemplo:
ejemplo:Los
Losingresos
ingresosdel
delhombre
hombre(IH)
(IH)son
son>>que
quelos
losde
delalamujer
mujer(IM)
(IM)
Por
IH
IHIM
IM
IH
IH>>IM
IM
HH0 0
HH1 1

DECISIN ESTADSTICA

Basndonos en la distribucin muestral del estadstico de contraste


podemos conocer cul es el valor esperado para esa distribucin bajo
la hiptesis nula. En consecuencia, compararamos nuestro valor
observado con el esperado para decidir si rechazamos o no la
hiptesis nula.

Regin de rechazo: regin formada por los valores que se alejan del valor
esperado bajo H0.

Regin de aceptacin: regin formada por los valores que no se alejan


tanto del valor esperado bajo H0.

Valores crticos: valores del estadstico de contraste que delimitan la regin


del rechazo

DECISIN ESTADSTICA

Contraste bilateral: cuando los valores se alejan de lo esperado bajo H0,


por ser muy grandes y por ser muy pequeos.

Contraste unilateral: cuando los valores se alejan de lo esperado bajo


H0, solo por ser muy grandes o slo por ser muy pequeos.

Nivel de significacin: probabilidad de que una muestra genere un valor


del estadstico de contraste que est dentro de la regin de rechazo.

Nivel de confianza: probabilidad de que una muestra genere un valor del


estadstico de contraste que est fuera de la regin de rechazo, es decir
que est dentro de la regin de aceptacin (1- ).

DECISIN ESTADSTICA

Cuatro situaciones posibles al realizar un test de hiptesis:

Realidad
H0 verdadero H1

H0 Falso

Falso

H1 verdadero

Acepto H0

Decisin que
toma el
investigador

Rechazo H1
Rechazo H0
Acepto H1

Acierto

Error
O
De Tipo I

Error
O
De Tipo II

Acierto
(Potencia )

DECISIN ESTADSTICA
Error : Probabilidad de aceptar H1 siendo falsa.
Error : Probabilidad de aceptar la H0 siendo falsa.
Ejemplo: realizo un test para saber si los sujetos de la muestra
padecen una patologa determinada.
H0: No padecer la enfermedad.

H1: Padecer la enfermedad.

Error probabilidad de que el test de positivo y el paciente realmente


no tenga la enfermedad. Es lo que denominamos FALSO POSITIVO.
Al valor 1- se le denomina NIVEL DE CONFIANZA.
Error , el test me ha dado negativo y el paciente padece realmente la
enfermedad. Es lo que denominamos FALSO NEGATIVO.
Al valor 1- se le denomina POTENCIA DEL CONTRASTE.

PROCESO DE DECISIN ESTADSTICA


1.

Formular hiptesis nula (H0) y alternativa (H1)

2.

Fijar el nivel de significacin (0,05 o 0,01)

3.

Elegir el estadstico adecuado de contraste (t-student ...)

4.

Determinar el valor del estadstico de contraste

5.

Comprobar si el valor observado este dentro de la regin de


aceptacin (es decir que es < o > que o lo que es lo mismo
que este por encima o por debajo del nivel de significacin 1).

6.

Decidir si se rechaza o se mantiene la H0 (si me sale 0,02


acepto la H1 y rechazo la H0).

7.

Interpretar el resultado de acuerdo con el problema

NIVEL DE SIGNIFICACIN

NIVEL DE SIGNIFICACIN p
El nivel de significacin fija el lmite mximo que puede
tomar esta p, mientras que el grado de significacin es la
probabilidad (el %) exacta de que habiendo aparecido estos
valores sea cierta la H0

PRUEBA PARAMTRICA O NO PARAMTRICA?


SUPUESTOS PARAMTRICOS

Pruebas
paramtricas:
referidas
poblacionales. SIGUEN LA NORMAL.

parmetros

Pruebas no paramtricas: no hacen ningn supuesto acerca


de la forma en la que fue extrada la muestra de la
poblacin. NO SIGUEN LA NORMAL.

SUPUESTOS PARAMTRICOS:
1.

Las variables han de ser CUANTITATIVAS continuas o discretas,


medidas, al menos, en una escala de intervalo.

2.

La muestra procede de una poblacin en la que las variables


SIGUEN una distribucin NORMAL.

3.

Se cumple la homocedasticidad de varianzas (es decir IGUALDAD


DE VARIANZAS).

4.

La MUESTRA tiene un tamao GRANDE (

30)

PRUEBA PARAMTRICA O NO PARAMTRICA?


SUPUESTOS PARAMTRICOS
SUPUESTOS PARAMTRICOS:
5. Las observaciones son independientes entre s.
La seleccin de un caso cualquiera de la poblacin con
miras a incluirlo en la muestra no debe afectar a las
posibilidades de incluir a cualquier otro caso, y la
puntuacin que se asigne a un caso cualquiera no debe
influir en la puntuacin que se asigne a cualquier otro
caso.

PRUEBA PARAMTRICA O NO PARAMTRICA?


Las pruebas estadsticas de carcter PARAMTRICO son MS
PODEROSAS para rechazar la cuando H0 debe ser rechazada.
Las PRUEBAS NO PARAMTRICAS son menos poderosas para
rechazar la cuando H0 debe ser rechazada, pero ofrecen la
ventaja de que NO TIENEN QUE CUMPLIRSE TODOS LOS
SUPUESTOS PARAMTRICOS.
Las variables cuantitativas pueden ser paramtricas o no
paramtricas.
Las variables cualitativas difcilmente pueden ser paramtricas.

PRUEBAS PARAMTRICAS
Prueba T de Student

Para una muestra

Para muestras independientes

Para muestras relacionadas

ANOVA de un factor

Analizar/ Comparar medias/

Prueba T de Student para una


muestra

El procedimiento Prueba T para una muestra contrasta si la media


de una sola variable difiere de una constante especificada.

Ejemplos. Un investigador desea comprobar si la puntuacin media del


coeficiente intelectual de un grupo de alumnos difiere de 100.

O bien, un fabricante de copos de cereales puede tomar una muestra de


envases de la lnea de produccin y comprobar si el peso medio de las
muestras difiere de 1 Kg con un nivel de confianza al 95%.

Analizar/ Comparar medias/ Prueba T para una muestra

Prueba T de Student para una


muestra
Ejemplo: comparo si el nmero de sesiones que reciben los sujetos difiere
de 9.

Analizar/ Comparar medias/ Prueba T para una muestra

Prueba T de Student para


muestras independientes
La Prueba T para muestras independientes compara las medias de dos grupos de casos de una
variable.
Los sujetos deben asignarse aleatoriamente a dos grupos, de forma que cualquier diferencia en la
respuesta sea debida al tratamiento (o falta de tratamiento) y no a otros factores .
Este caso no ocurre si se comparan los ingresos medios para hombres y mujeres . El sexo de una
persona no se asigna aleatoriamente.
Debemos asegurarse de que las diferencias en otros factores no enmascaren o resalten una
diferencia significativa entre las medias. Las diferencias de ingresos medios pueden estar
sometidas a la influencia de factores como los estudios (y no solamente el sexo).
La prueba emplea una variable de agrupacin con dos valores para separar los casos en dos
grupos.
La variable de agrupacin puede ser numrica (valores como 1 y 2, o 6,25 y 12,5) o de cadena
corta (como s y no). Tambin puede usar una variable cuantitativa, como la edad, para dividir los
casos en dos grupos especificando un punto de corte (el punto de corte 21 divide la edad en un
grupo de menos de 21 aos y otro de ms de 21)

Analizar/ Comparar medias/ Prueba T para muestras independientes

Prueba T de Student para


muestras independientes

Ejemplo: analizo el nmero de sesiones que son necesarias para que


desaparezca el dolor al aplicar TENS continuo frente a TENS pulstil.

Analizar/ Comparar medias/ Prueba T para muestras independientes

Prueba T de Student para


muestras relacionadas
El procedimiento Prueba T para muestras relacionadas compara las
medias de dos variables de un solo grupo.
El procedimiento calcula las diferencias entre los valores de las
dos variables de cada caso y contrasta si la media difiere de 0.
Ejemplo. En un estudio sobre la efectividad analgsica de una
corriente TENS, se evala el dolor (escala E.V.A.) a todos los
pacientes al comienzo del estudio (PRETEST), se les aplica un
tratamiento y se evala el dolor otra vez (POSTEST).
LAS DOS VARIABLES deben ser CUANTITATIVAS.

Analizar/ Comparar medias/ Prueba T para muestras relacionadas

Prueba T de Student para


muestras relacionadas

Analizar/ Comparar medias/ Prueba T para muestras relacionadas

Prueba Anova de un factor

El procedimiento ANOVA de un factor genera un anlisis de varianza de un


factor para una variable dependiente cuantitativa respecto a una nica
variable de factor (la variable independiente).

El anlisis de varianza se utiliza para contrastar la hiptesis de que varias


medias son iguales.

Esta tcnica es una extensin de la prueba t para dos muestras.

Adems de determinar que existen diferencias entre las medias me dice qu


medias difieren y cuanto difieren.

Dos contrastes: a priori y post hoc.

ESTA PRUEBA SE EMPLEA POR EJEMPLO PARA COMPARAR LA


EFECTIVIDAD DE UN TRATAMIENTO CON DOS O MS MODALIDADES (UNA
EN CADA UNO DE LOS GRUPOS 2 O +). En este caso Post Hoc.

Analizar/ Comparar medias/ Anova de un Factor

PRUEBAS NO PARAMTRICAS
Analizar/ Pruebas no paramtricas/
1) Prueba Chi-cuadrado:

podra utilizarse para determinar si una bolsa de


caramelos contiene igual proporcin caramelos de color azul, marrn, verde,
naranja, rojo y amarillo o tambin podra utilizarse para ver si una bolsa de
caramelos contiene un 5% de color azul, un 30% de color marrn, un 10% de color
verde, un 20% de color naranja, un 15% de color rojo y un 15% de color amarillo.

2) Prueba Binomial: compara las frecuencias observadas de las dos categoras de


una variable dicotmica con las frecuencias esperadas en una distribucin
binomial con un parmetro de probabilidad especificado. Ejemplo: lanzo una
moneda al aire 40 veces y anoto los resultados (cara o cruz). Debera haberme
salido 50% cara y 50% cruz, pero me ha salido 25% cara y 75% cruz. Al hacer la
prueba binomial me sale que no hay significacin, es decir que la moneda est
trucada.

3) Prueba de Rachas: contrasta si es aleatorio el orden de aparicin de dos


valores de una variable. Una racha es una secuencia de observaciones similares.
Una muestra con un nmero excesivamente grande o excesivamente pequeo de
rachas sugiere que la muestra no es aleatoria. Ejemplo encuesta en la que todo
los sujetos son mujeres.

PRUEBAS NO PARAMTRICAS
Analizar/ Pruebas no paramtricas/
4) Prueba de Kolmogorov-Smirnov para una muestra: compara si la
distribucin de una variable se ajusta a una distribucin terica determinada, que
puede ser la NORMAL, la uniforme, la de Poisson o la exponencial.

5) Prueba para dos muestras independientes (U de Mann-Whitney): es la


versin no paramtrica de la prueba T Student para muestras independientes
(equivale a esta prueba). Compara dos grupos de casos existentes en una
variable. Por ejemplo: analizo la disminucin del dolor al aplicar TENS continuo
frente a TENS pulstil.

6) Prueba para Varias muestras independientes. H de Kruskal-Wallis: es


el anlogo no paramtrico del anlisis de varianza (ANOVA) de un factor. Nos
permite comparar la efectividad de un tratamiento con dos o ms modalidades
(una en cada uno de los grupos 2 o +).

PRUEBAS NO PARAMTRICAS
Analizar/ Pruebas no paramtricas/
7) Prueba para Dos Muestras Relacionadas o Prueba de los Rangos con
Signos de Wilcoxon, Prueba de McNemar ... etc.: es la anloga no
paramtrica a la prueba T Student para muestras relacionadas. Podemos usar la
prueba de WILCOXON PARA EVALUAR SI EL DOLOR DISMINUYE (PRETEST EN
RELACIN AL POSTEST) AL APLICAR UN TRATAMIENTO.
Tambin podemos emplear la PRUEBA DE MCNEMAR: prueba no paramtrica
para DOS VARIABLES DICOTMICAS RELACIONADAS. Contrasta los cambios en
las respuestas utilizando la distribucin de chi-cuadrado. Es til para detectar
cambios en las respuestas debidas a la intervencin experimental en los diseos
del tipo "antes-despus". Para las tablas cuadradas de mayor orden se informa de
la prueba de simetra de McNemar-Bowker.
LA PRUEBA DE HOMOGENEIDAD MARGINAL es una prueba no paramtrica para
DOS VARIABLES ORDINALES RELACIONADAS. Se trata de una extensin de la
prueba de McNemar a partir de la respuesta binaria a las respuestas
multinominales. Contrasta los cambios de respuesta, utilizando la distribucin de
chi-cuadrado, y es til para detectar cambios de respuesta causados por
intervencin experimental en diseos antes-despus.

PRUEBAS NO PARAMTRICAS
Analizar/ Pruebas no paramtricas/

8) Prueba para Varias o K Muestras Relacionadas. Pruebas de Friedman


y Prueba Q de Cochran.
Prueba de Friedman es el equivalente no paramtrico de un diseo de medidas
repetidas para una muestra o un anlisis de varianza de dos factores con una
observacin por casilla.
Las variables en este caso se medirn en una escala ordinal.
Diferencias entre dos series de puntuaciones.
Prueba Q de Cochran Contraste no paramtrico de la hiptesis de que varias
variables dicotmicas relacionadas tienen la misma media. Las variables medirn
al mismo individuo o a individuos emparejados.
Las variables en este caso se medirn en una escala nominal u ordinal.
Analizamos la existencia de diferencias entre dos series de puntuaciones.

PRUEBAS NO PARAMTRICAS
MUESTRAS
Una muestra

ESCALA DE
MEDIDA
intervalo

Dos muestras

Ordinal

K muestras

Nominal

independientes

K muestras
relacionadas

TIPO DE
CONTRASTE
La forma de distribucin
una variable (bondad de
ajuste)

Diferencias entre muestras

PRUEBA NO
PARAMTRICA
Kolmogorov-Smirnov

Wilcoxon (muestras
relacionadas)
Mann-Whitney
(muestras
independientes)
Chi-cuadrado

Diferencias entre muestras


Ordinal

Kruskal-Wallis

Nominal u ordinal

Diferencias entre dos


series de puntuaciones

Cochran

Ordinal

Diferencias entre muestras

Friedman

Analizar/ Pruebas no paramtricas/

PRUEBAS PARA DOS MUESTRAS


INDEPENDIENTES
VD

Supuestos

Cualitativa

Ordinal

Pruebas

Objetivos

2 Chi-cuadrado

La distribucin de casos
en las categoras de la VD
cambia en funcin de los
valores de la VI?

U de MannWhitney

Los rangos de la VD se
distribuyen de forma
similar en los distintos
valores de la VI?

t-Student
F del Anova
t2 = F

Las medias de la VD son


similares en los distintos
valores de la VI?

t o F de Welch

Las medias de la VD son


similares en los distintos
valores de la VI?

U de MannWhitney

Los rangos de la VD se
distribuyen de forma
similar en los distintos
valores de la VI?

VI cualitativa
2 muestras

VD Normal
Homocedstica

independientes

Cuantitativa

VD Normal no
Homocedstica

VD NO Normal

CALCULANDO EL TAMAO DEL EFECTO

Prueba

Medida

Frmula

Peq

Medio

Grande

Chi-cuadrado

Coeficiente de
Contingencia

r2 = 2 = 2/N

0,10

0,30

0,50

t de Student

Diferencia de
medias
estandarizada

d = 2t/gl

0,20

0,50

0,80

F del Anova
(F de Snedecor)

Eta o R cuadrado

R2 = F/(F+gl)

0,01

0,06

0,14

DATOS QUE DEBEMOS APORTAR EN UN INFORME

Prueba

Datos de la prueba

Chi-cuadrado

(gl,N = ...) = ... , p = ... , = ...

Frecuencias o porcentajes de las


categoras de una variable en funcin
de las categoras de la otra

t de Student

t (gl) = ... , p = ... , d = ...

Medias y desviaciones tpicas de los


distintos grupos

F del Anova
(F de Snedecor)

F (gl1,gl2) = ... , p = ... , R2= ...

Medias y desviaciones tpicas de los


distintos grupos

Datos descriptivos
2

Nota: si el contraste es a una cola hay que sealarlo indicando p (a


una cola) = ... / Recordar que si el contraste es a una cola hay que
dividir la p que me de entre 2 (en SPSS sale p=0,02 pongo p=0,01)

DATOS QUE DEBEMOS APORTAR EN UN INFORME

El contraste general entre los dos tratamientos continuo y pulstil, es decir, el


anlisis de los ndices de mejora, comparando ambos tratamientos, empleando la
prueba t-Student para muestras independientes (implementando realmente la prueba
de Welch al no existir igualdad de varianzas y ser heterocedsticas ambas
distribuciones de datos), as como la prueba U de Mann-Whitney muestra que existe
una diferencia estadsticamente significativa entre ambos tratamientos, siendo mejor
la pulstil (p < 0.05). Comprobamos en primer lugar la ausencia de diferencias
significativas entre las varianzas de error del diseo, FLevene (1, 899) = 15,567 (p =
0.000). El grupo tratado con corriente pulstil (media 1,99 DT 0,60) obtuvo una
disminucin del dolor significativamente superior a la del grupo tratado con
corriente continua (media 1,17 DT 0,37) t de Welch (648,831) = -23,674 p (a una
cola) = 0.000. Empleado para determinar el tamao del efecto el programa effect
size calculator (disponible en: http://www.uccs.edu/~faculty/lbecker/) obteniendo d
= 1,8588. Se trata de un valor de tamao del efecto elevado, que refleja la
importante diferencia existente a favor de la corriente pulstil. Este valor tambin lo
hemos obtenido al emplear la frmula: d = 2t/gl

DATOS QUE DEBEMOS APORTAR EN UN INFORME


Comprobacin del supuesto de homocedasticidad ( = 0,05):
Comprobamos en primer lugar la ausencia de diferencias significativas entre
las varianzas de error del diseo, FLevene (1, 94) = 0,009 (p = 0,923).
Contrastes bidireccionales ( = 0,05) con F y t:
Se encontraron diferencias estadsticamente significativas en el nmero de
sesiones efectuadas entre el grupo tratado con tens pulstil (M = 8,35 DT =
3,605) y el tratado con tens continuo (M = 10,29 DT = 3,567) F(1,94) = 7,005,
p = 0,010, R2 = 0,069 [calculado R2 =F/(F+gl)=7,005/(7,005+94)].
Se encontraron diferencias estadsticamente significativas entre el grupo que
recibi tens pulstil (M = 8,35 DT = 3,605) y el que recibi tens continuo (M =
10,29 DT = 3,567) t(94) = 2,647, p = 0,010, d = 0,55.

DATOS QUE DEBEMOS APORTAR EN UN INFORME


Contrastes unidireccionales ( = 0,05) con F y t:
El grupo que recibi tens pulstil (M = 8,35 DT = 3,605) obtuvo una media
significativamente inferior a la del grupo que recibi tens continuo (M = 10,29 DT =
3,567) F(1,94) = 7,005, p (a una cola) = 0,005, R2 = 0,069.
El grupo que recibi tens pulstil (M = 8,35 DT = 3,605) obtuvo una media
significativamente inferior a la del grupo que recibi tens continuo (M = 10,29 DT =
3,567) t(94) = 2,647, p (a una cola) = 0,005, d = 0,55.
Contrastes bidireccionales ( = 0,01) con F y t:
Aunque el tamao del efecto encontrado result moderado R 2 = 0,069 las diferencias
entre los sujetos que recibieron tens pulstil (M = 8,35 DT = 3,605) y los que
recibieron tens continuo (M = 10,29 DT = 3,567) no resultaron significativas F(1,94) =
7,005, p = 0,010
Aunque el tamao del efecto encontrado result moderado d = 0,55 las diferencias
entre los sujetos que recibieron tens pulstil (M = 8,35 DT = 3,605) y los que
recibieron tens continuo (M = 10,29 DT = 3,567) no resultaron significativas t(94) =
2,647, p = 0,010.

DATOS QUE DEBEMOS APORTAR EN UN INFORME


Tras un procedimiento de muestreo no probabilstico a conveniencia, nuestra muestra est
conformada por un total de 44 individuos, con una edad media de 39,6818 aos con una
desviacin tpica (DT en adelante) de 5,97581 y los valores mnimos y mximos son 23 y 49
aos.
Las edades se distribuyen de forma normal cuando no consideramos el grupo de tratamiento.
Estadstico de Shapiro-Wilk = 0,955 (p = 0,081). Si consideramos cada grupo por separado
la variable edad tambin se distribuye normalmente. Estadstico de Shapiro-Wilk para el
grupo control = 0,934 (p = 0,147). Estadstico de Shapiro-Wilk para el grupo experimental
= 0,967 (p = 0,633). Como el nmero de sujetos incluidos en cada grupo fue de 22 (por
tanto inferior de 30) empleamos tanto pruebas de carcter paramtrico como no paramtrico
para determinar la presencia/ausencia de sesgos en la distribucin de edades de los sujetos
en nuestros dos grupos. Los dos grupos son homogneos en relacin a la edad de los sujetos
(grupo control media 39.8636 aos DT=5.97053, grupo experimental media 39,5 y DT =
6,11594). No existe una diferencia significativa entre la edad de los dos grupos.
Comprobamos en primer lugar la ausencia de diferencias significativas entre las varianzas
de error del diseo, FLevene (1, 42) = 0,138 (p = 0,712). El grupo control presenta una media
de edad no significativamente superior a la del grupo experimental, con una t de Student
(42) = 0,2 p (a una cola) = 0,843. En el grupo control el rango promedio fue de 23,27
mientras que en el experimental fue 21,73 U de Mann-Whitney = 225 (p = 0,689).

DATOS QUE DEBEMOS APORTAR EN UN INFORME

De los 44 pacientes estudiados en nuestro ensayo 14 son varones lo que


representa un 31,8%, mientras que 30 son mujeres (68,2%). Estos datos se
muestran de forma grfica en la figura xx. En el grupo control, al igual que en
el experimental hemos incluido un total de 7 hombres (31,8%) y 15 mujeres
(68,2%). Hemos comprobado, empleando la prueba Chi-cuadrado, que no hay
un sesgo en la distribucin por sexos de nuestros pacientes en los dos grupos
analizados. La proporcin de mujeres y de hombres incluidos en el grupo
control frente al grupo experimental son iguales X2 (1,44) = 0,000, p = 1,000.

Clasificacin de las investigaciones en Salud


INVESTIGACION BIOMEDICA

(Nivel subindividual)

INVESTIGACIONES EN SALUD
Frenk,J.
(Modificado por Toledo, G.)

INVESTIGACION CLINICA

(Nivel individual)
INVESTIGACION EN SALUD PUBLICA

(Nivel poblacional)

EN SISTEMAS DE SALUD
ORGANIZACION DE S. S.

POLITICAS DE SALUD

(Nivel micro
intraorganizacional)

(Nivel macro o
interorganizacional)

EN SERVICOS
DE SALUD

EN POLITICAS
DE SALUD

EPIDEMIOLOGICA
OBSERVACIONALES

DESCRIPTIVAS

EXPERIMENTALES O DE
INTERVENCION

ANALITICAS

Estudios de
incidencia

Estudios de
mortalidad
proporcional

Estudios de
prevalencia

Estudios
ecolgicos

Encuestas
Transversales
Estudios de
Casos y
controles
Estudios de
Cohorte

ENSAYOS
CLINICOS

ENSAYOS
DE CAMPO

ENSAYOS
COMUNITARIOS

el investigador
manipul la exposicin?

Si

No

Estudio experimental
asignacin
aleatoria?

Si

Estudio observacional

No

Ensayo
controlado no
aleatorizado

Ensayo
clnico
controlado
aleatorizado

Si

grupo de
comparacin?

Estudio
analtico

No

Estudio
descriptivo

direccin?
Estudio de
casos y
controles
efecto exposicin
efecto

Estudio de
cohorte
exposicin

Estudio de
corte
tranversal
exposicion = efecto

Temporalidad de los estudios epidemiologicos

Estudio de cohorte
Exposicin

Efecto

Estudio de caso-control
Exposicin

Efecto

Estudio de caso-control
Exposicin
Efecto

Tiempo

S-ar putea să vă placă și