Sunteți pe pagina 1din 8

PRUEBAS PARAMTRICAS Y NO PARAMTRICAS

La etapa c, que incluamos entre los pasos para realizar una prueba de decisin
estadstica, estableca la necesidad de elegir un estadstico de contraste adecuado para
llevar a cabo tal prueba. La utilizacin de ciertos estadsticos de contraste exige el
cumplimiento de determinados requisitos, referidos a los parmetros y a la distribucin
poblacional. Estos requisitos son los denominados supuestos paramtricos, entre los que
se suelen encontrar los siguientes:
- Las variables consideradas son cuantitativas continuas, medidas por lo menos en una
escala de intervalos.
- Las muestras consideradas proceden de poblaciones en las que las variables se
distribuyen segn la ley normal.
- Se da homoscedasticidad (homogeneidad de varianzas) entre las distintas distribuciones
comparadas, es decir, las muestras proceden de poblaciones con varianzas similares.
- Las muestras consideradas tienen un tamao grande. Consideraremos grande, una
muestra de tamao superior a 30 individuos (n>30).
La significacin de los resultados que obtengamos depender del cumplimiento efectivo de
tales condiciones. Este tipo de pruebas de contraste reciben la denominacin de pruebas
paramtricas.
En el caso de otra serie de pruebas no se hacen tantas suposiciones como en las
anteriores acerca de la poblacin, por lo que pueden ser aplicadas sin el cumplimiento
rgido de tales condiciones previas. Este tipo de pruebas se denominan pruebas no
paramtricas.
Las pruebas no paramtricas no hacen ningn tipo de suposicin acerca de la forma
exacta de la poblacin en la que fueron extradas las muestras. A lo sumo, se precisa que
la distribucin sea continua, o simtrica, pero no se llega a predeterminar rgidamente la
forma de la distribucin, como ocurre cuando se exige que ste se adapte a la curva
normal.
1.

A partir de las aportaciones de Bradley y Moses presentadas en la obra de Downie


y Heath(1983), y las que se recogen en los trabajos de Siegel(1991) o Prez Juste
(1985) podemos relacionar las ventajas asociados al uso de las pruebas no
paramtricas:

2.

Simplicidad de deduccin. Mientras que la deduccin de los contrastes


paramtricos requeire a veces un nivel de conocimientos matemticos muy por
encima del que suelen poseer la mayora de los investigadores, los estadsticos no
paramtricos se deducen de expresiones ms sencillas.

3.

Facilidad de aplicacin. Los contrastes no paramtricos son ms sencillos de


aplicar. Frecuentemente, requieren slo operaciones como ordenar por rangos,
contar, sumar y restar.

4.

Rapidez de aplicacin. Siempre que el tamao de la muestra no sea demasiado


grande, los contrastes no paramtricos se realizan con mayor rapidez que los
paramtricos.

5.

Menos exigentes respecto al nivel de medicin. Mientras que os contrastes


paramtricos suelen exigir mediciones en una escala de razn o de intervalos, los
contrastes no paramtricos requieren en general mediciones a nivel ordinal o
nominal.

Siempre que se cumplan los supuesto exigidos, las pruebas paramtricas resultan de
mayor potencia que las no paramtricas, esto es, la probabilidad de rechazar una hiptesis
nula efectivamente falsa es mayor. Teniendo esto en cuenta, el criterio que habremos de
seguir a la hora de elegir entre pruebas paramtricas o no paramtricas es el de aplicar
una del primer tipo siempre que las condiciones exigidas para ello se cumplan. Pero si no
se cumplen tales condiciones, y especialmente si el tamao muestral es muy pequeo, es
preferible recurrir a las pruebas no paramtricas.

http://ocwus.us.es/metodos-de-investigacion-y-diagnostico-eneducacion/analisis-de-datos-en-la-investigacioneducativa/Bloque_II/page_64.htm

Las pruebas estadsticas


Cuando se analizan datos medidos por una variable cuantitativa
continua, las pruebas estadsticas de estimacin y contraste
frecuentemente empleadas se basan en suponer que se ha obtenido
una muestra aleatoria de una distribucin de probabilidad de tipo
normal o de Gauss.
Pero en muchas ocasiones esta suposicin no resulta vlida, y en
otras la sospecha de que no sea adecuada no resulta fcil de
comprobar, por tratarse de muestras pequeas.
En estos casos disponemos de dos posibles mecanismos:

Los datos se pueden transformar de tal manera que sigan una


distribucin normal.

O bien se puede acudir a pruebas estadsticas que no se basan


en ninguna suposicin en cuanto a la distribucin de probabilidad
a partir de la que fueron obtenidos los datos, y por ello se
denominan pruebas no paramtricas (distribucin free), mientras
que las pruebas que suponen una distribucin de probabilidad
determinada para los datos se denominan pruebas paramtricas.

1) PRUEBAS NO PARAMTRICAS:
Las pruebas estadsticas no paramtricas son las que, a pesar de
basarse en determinadas suposiciones, no parten de la base de que
los datos analizados adoptan una distribucin normal.
Tcnica estadstica que no presupone ninguna distribucin de
probabilidad terica de la distribucin de nuestros datos.
Se denominan pruebas no paramtricas aquellas que no presuponen
una distribucin de probabilidad para los datos, por ello se conocen
tambin como de distribucin libre (distribucin free).
En la mayor parte de ellas los resultados estadsticos se derivan
nicamente a partir de procedimientos de ordenacin y recuento, por
lo que su base lgica es de fcil comprensin.
Cuando trabajamos con muestras pequeas (n < 10) en las que se
desconoce si es vlido suponer la normalidad de los datos, conviene
utilizar pruebas no paramtricas, al menos para corroborar los
resultados obtenidos a partir de la utilizacin de la teora basada en la
normal.
En estos casos se emplea como parmetro de centralizacin la
mediana, que es aquel punto para el que el valor de X est el 50% de
las veces por debajo y el 50% por encima.
Las pruebas no paramtricas no requieren asumir normalidad de la
poblacin y en su mayora se basan en el ordenamiento de los datos,

la poblacin tiene que ser continua.


El parmetro que se usa para hacer las pruebas estadsticas es la
Mediana y no la Media.
Son tcnicas estadsticas
probabilstico terico.

que

no

presuponen

ningn

modelo

Son menos potentes que las tcnicas paramtricas, aunque tienen la


ventaja que se pueden aplicar ms fcilmente.
2) PRUEBAS PARAMTRICAS:
Las pruebas estadsticas paramtricas, como la de la t de Student o
el anlisis de la varianza (ANOVA), se basan en que se supone una
forma determinada de la distribucin de valores, generalmente la
distribucin normal, en la poblacin de la que se obtiene la muestra
experimental.
En contraposicin de la tcnicas no paramtricas, las tcnicas
paramtricas si presuponen una distribucin terica de probabilidad
subyacente para la distribucin de los datos.
Son ms potentes que las no paramtricas.
Dentro de las pruebas paramtricas, las ms habituales se basan en
la distribucin de probabilidad normal, y al estimar los parmetros del
modelo se supone que los datos constituyen una muestra aleatoria de
esa distribucin, por lo que la eleccin del estimador y el clculo de la
precisin de la estimacin, elementos bsicos para construir
intervalos de confianza y contrastar hiptesis, dependen del modelo
probabilstico supuesto.
Cuando un procedimiento estadstico es poco sensible a alteraciones
en el modelo probabilstico supuesto, es decir que los resultados
obtenidos son aproximadamente vlidos cuando ste vara, se dice
que es un procedimiento robusto.
3) ANLISIS DE LA VARIANZA (ANOVA)
ANOVA son siglas para el anlisis de la Variacin (ANalysis Of
VAriance).
Un ANOVA segrega diversas fuentes de la variacin vistas en
resultados experimentales.
Conjunto de tcnicas estadsticas para conocer el modo en que el
valor medio de una variable es afectado por diferentes tipos de
clasificaciones de los datos.
Con el anlisis de la varianza se pueden ajustar las estimaciones del
efecto de un tratamiento segn otros factores como sexo, edad,

gravedad, etc.
Es una tcnica estadstica que sirve para decidir/determinar si las
diferencias que existen entre las medias de tres o ms grupos
(niveles de clasificacin) son estadsticamente significativas.
Las tcnicas de ANOVA se basan en la particin de la varianza para
establecer si la varianza explicada por los grupos formados es
suficientemente mayor que la varianza residual o no explicada.
El anlisis de la varianza (ANOVA) es una tcnica estadstica de
contraste de hiptesis.
Tradicionalmente estas tcnicas, conjuntamente con las tcnicas de
regresin lineal mltiple, de las que prcticamente son una extensin
natural, marcan el comienzo de las tcnicas multivariantes.
Con estas tcnicas se manejan simultneamente ms de dos
variables, y la complejidad del aparato matemtico se incrementa
proporcionalmente con el nmero de variables en juego.
El anlisis de la varianza de un factor es el modelo ms simple: una
nica variable nominal independiente, con tres o ms niveles, explica
una variable dependiente continua.
Otra alternativa, que aparentemente es ms lgica e intuitiva,
consiste en comparar, en todas las posibles combinaciones de dos en
dos, las medias de todos los subgrupos formados.
En el ANOVA se comparan medias, no varianzas: medias de los
subgrupos o estratos originados por los factores de clasificacin
estudiados.
Un ANOVA entonces prueba si la variacin asociada a una fuente
explicada es grande concerniente a la variacin inexplicada.
Si ese cociente (la estadstica de F) es tan grande que la probabilidad
que ocurri por casualidad es baja (por ejemplo, P<=0.05), podemos
concluir (en ese nivel de la probabilidad) que esa fuente de la
variacin tena un efecto significativo.
CONDICIONES GENERALES DE APLICACIN.
A- INDEPENDENCIA DE LOS ERRORES I
Los errores experimentales han de ser independientes Se consigue si
los sujetos son asignados aleatoriamente. Es decir, se consigue esta
condicin si los elementos de los diversos grupos han sido elegidos
por muestreo aleatorio
B- NORMALIDAD
Se supone que los errores experimentales se distribuyen
normalmente. Lo que supone que cada una de las puntuaciones yi.i se
distribuir normalmente.
Para comprobarlo se puede aplicar un test de ajuste a la distribucin

normal como et de Kolmogov-Smirnov.


C- HOMOGENEIDAD DE VARIANZAS (HOMOSCEDASTICIDAD).
La varianza de los subgrupos ha de ser homognea 21 = 22 = .....=
2k ya que estn debidas al error. Se comprobarn mediante los test
de: Razn de varianzas (mx. /min), C de Cochran, Barlett-Box
4) ANLISIS DE LA COVARIANZA (ANCOVA)
Mtodo de anlisis estadstico que es una extensin del anlisis de la
varianza, que permite ajustar los estimadores del efecto de un
tratamiento segn posibles covariables y factores.
Es una tcnica estadstica que combina ANOVA (pues compara
medias entre grupos) y anlisis de regresin (ajusta las
comparaciones de las medias entres los grupos por variables
continuas o covariables)
5) ANLISIS DE REGRESIN
En un conjunto de datos sobre la variable dependiente y sobre una o
ms variables independientes,
, consiste en determinar el
modelo matemtico ms ajustado que describa y como una funcin
de las x o para predecir y a partir de las x.
Los tipos ms corrientes son el modelo lineal y el modelo logstico.
6) ANLISIS POR PROTOCOLO
En un ensayo clnico, anlisis de los datos segn el tratamiento
tomado, en contraposicin al anlisis por intencin de tratar, que se
realiza segn el tratamiento asignado en el proceso de asignacin
aleatoria. El anlisis por protocolo tiende a medir la eficacia de la
intervencin, para cuya evaluacin conviene incluir slo a los
pacientes que han estado realmente expuestos a los tratamientos
planificados.

http://scientific-european-federation-osteopaths.org/es/prueba-estadisticas

Diferencias entre las pruebas paramtricas y no paramtricas


Las pruebas estadsticas paramtricas y no paramtricas se diferencian por el
tipo de datos que se usan para analizar. Las pruebas paramtricas hacen
muchas suposiciones, la ms significativa de las cuales es que los datos se
distribuyen normalmente. Las pruebas no paramtricas hacen menos
suposiciones y hacen frente a los datos que no se distribuyen normalmente.
Las pruebas paramtricas generalmente tienen una mayor potencia estadstica.

S-ar putea să vă placă și