Sunteți pe pagina 1din 10

ANALISIS PARAMTRICO Y NO PARAMTRICO

Un parmetro, es un dato que es tomado como necesario para analizar o valorar


una situacin. A partir del parmetro, una determinada circunstancia puede
entenderse o situarse en perspectiva. Por ejemplo: Si nos basamos en los
parmetros habituales, resultar imposible comprender esta situacin, El
paciente est evolucionando de acuerdo a los parmetros esperados, Estamos
investigando pero no hay parmetros que nos permitan establecer una relacin
con el caso anterior, La actuacin del equipo en el torneo local es el mejor
parmetro para realizar un pronstico sobre su participacin en el campeonato
mundial.
La utilidad de los parmetros estadsticos se encuentra ante la dificultad para
manejar una gran cantidad de datos individuales de una misma poblacin. Este
tipo de parmetros permite obtener un panorama general de la poblacin y realizar
comparaciones y predicciones.
A continuacin se muestra una tabla en que se clasifican las variables como
paramtricas y no paramtricas:
Ejemplos de Variables
Variable
Genero

Comuna

dimensin

cdigo

Observaciones.

hombre

mujer

Variable nominal. El cdigo esta expresado


en nmero que no se puede sumar; son
excluyentes

Norte

sur

Poniente

Oriente

Sur Oriente

Variable nominal. Se ubica la comuna del


lugar de residencia y se asigna el cdigo
teniendo como base de clasificacin los
puntos cardinales para la comuna de
Santiago y empleados por el Sistema
Nacional de Servicios de Salud y de
Educacin.
Los cdigos no se suman;

edad

aos

Variable paramtrica u ordinal; el nmero


significa aos de edad; se puede sumar.

Notas

Nmero de 1 a 7

Variable ordinal. Los cdigos se pueden


sumar y cada valor tiene un significado

Colegio

Municipal

Particular
subvencionado

Particular

otro

Variable nominal o no paramtricas

PRUEBAS O ANALISIS PARAMTRICOS


Se llaman as porque su clculo implica una estimacin de los parmetros de la
poblacin con base en muestras estadsticas. Mientras ms grande sea la muestra
ms exacta ser la estimacin, mientras ms pequea, ms distorsionada ser la
media de las muestras por los valores raros extremos.
Son valores numricos dados.
Los anlisis paramtricos partes de los siguientes supuestos:

La distribucin poblacional de la variable dependiente es normal: el


universo tiene distribucin normal.

El nivel de medicin de las variables es por intervalos de razn.

Cuando dos o ms poblaciones son estudiadas, tienen una varianza


homognea: las poblaciones en cuestin poseen una dispersin similar en
sus distribuciones.

Como estos criterios son muy rigurosos, algunos investigadores slo basan sus
anlisis en el tipo de Hi y los niveles de medicin de las variables.
Las pruebas paramtricas ms utilizadas son (HFB2):

Coeficiente de correlacin de Pearson y regresin lineal.

Prueba t.

Prueba de contraste de las diferencias de proporciones.

Anlisis de varianza unidireccional (ANOVA en un solo sentido o oneway)

Anlisis de Varianza factorial (ANOVA)

Anlisis de covarianza (ANCOVA)

Descripcin. (Otra lista de pruebas paramtricas):

Prueba del valor Z de la distribucin normal

Prueba T de Student para datos relacionados (muestras dependientes)

Prueba T de Student para datos no relacionados (muestras independientes)

Prueba T de Student-Welch para dos muestras independientes con


varianzas no homogneas

Prueba de ji cuadrada de Bartlett para demostrar la homogeneidad de


varianzas

Prueba F (anlisis de varianza o ANOVA)

El coeficiente de Correlacin de Pearson (r)

Es una prueba estadstica para analizar la relacin entre dos variables medidas en
un nivel por intervalos o de razn.
Prueba Hi del tipo de A mayor X, mayor Y; A mayor X, menor Y; etc.
La prueba en si no considera a una como independiente y la otra como
dependiente, porque no evala la causalidad, solo la relacin mutua (correlacin).
El coeficiente se calcula a partir de las puntuaciones obtenidas en una muestra de
dos variables. Se relacionan las puntuaciones obtenidas de una variable con las
puntuaciones obtenidas de otra variable, en los mismos sujetos.

Regresin Lineal

Es modelo matemtico para estimar el efecto de una variable sobre otra. Est
asociado con el coeficiente r de Pearson.
Sirve para resolver Hi correlacionales y causales.
Mide variables de Intervalos y de razn.

La regresin lineal se determina con base al diagrama de dispersin. Este


consiste en una grfica donde se relacionan las puntuaciones de una muestra en
dos variables, como la de estatura y peso del ejemplo anterior.

Prueba t (paramtrica)

En estadstica, una prueba t de Student, prueba t-Student, o Test-T es cualquier


prueba en la que el estadstico utilizado tiene una distribucin t de Student si la
hiptesis nula es cierta. Se aplica cuando la poblacin se asume ser normal pero
el tamao muestral es demasiado pequeo como para que el estadstico en el que
est basada la inferencia est normalmente distribuido, utilizndose una
estimacin de la desviacin tpica en lugar del valor real.
En probabilidad y estadstica, la distribucin t (de Student) es una distribucin de
probabilidad que surge del problema de estimar la media de una poblacin
normalmente distribuida cuando el tamao de la muestra es pequeo.
Aparece de manera natural al realizar la prueba t de Student para la determinacin
de las diferencias entre dos medias muestrales y para la construccin del intervalo
de confianza para la diferencia entre las medias de dos poblaciones cuando se
desconoce la desviacin tpica de una poblacin y sta debe ser estimada a partir
de los datos de una muestra.
Es una prueba estadstica para evaluar si dos grupos difieren estadsticamente
entre s, de manera significativa respecto a sus medias (HFB384). Es una prueba
apropiada para comparar los promedios de dos grupos, y especialmente
apropiado como anlisis para el diseo experimental de solo postest de dos
grupos al azar.
Mide variables de intervalo o de razn.
El valor t se obtiene de muestras grandes mediante la frmula:

Anlisis de varianza unidireccional (ANOVA en un solo sentido o


oneway)

El objetivo principal de muchos experimentos consiste en determinar el efecto que


sobre alguna variable dependiente Y tienen distintos niveles de algn factor X
(variable independiente y discreta). El factor puede ser la temperatura, la empresa
que ha producido el bien, el da de la semana, etc. Esencialmente, el diseo para
el anlisis simple de la varianza consistir en obtener muestras aleatorias e
independientes del valor de Y asociado a cada uno de los distintos niveles del
factor X1, X2,..., Xn . Entonces podremos determinar si los diferentes niveles del
factor tienen un efecto significativo sobre el valor de la variable dependiente. El
funcionamiento de la tcnica ANOVA simple es, a grandes rasgos, el siguiente: a
fin de comparar las medias de Y asociadas a los distintos niveles del factor (X1,
X2,..., Xn), compararemos una medida de la variacin entre diferentes niveles
(MS-factor) con una medida de la variacin dentro de cada nivel (MS-error). Si el
MS-factor es significativamente mayor que el MS-error, concluiremos que las
medias asociadas a diferentes niveles del factor son distintas. Esto significa que el
factor influye significativamente sobre la variable dependiente Y. Si, por el
contrario, el MS-factor no es significativamente mayor que el MS-error, no
rechazaremos la hiptesis nula de que todas las medias, asociadas a diferentes
niveles del factor, coinciden.

Anlisis de Varianza factorial (ANOVA)

El procedimiento anlisis de la varianza nos permite contrastar la hiptesis nula de


que las medias de k grupos no difieren entre si ms all de lo que cabra esperar
por los efectos del azar. Este procedimiento nos permite adems realizar un
elevado nmero de pruebas posteriores con el fin de obtener la mxima
informacin posible sobre la relacin existente entre la variable independiente y la
dependiente.

Anlisis de covarianza (ANCOVA)

El anlisis de la covarianza o ANCOVA, acrnimo del ingls analysis of


covariance, es un modelo lineal general con una variable cuantitativa y uno o ms

factores. El ANCOVA es una fusin del ANOVA y de la regresin lineal mltiple. Es


un procedimiento estadstico que permite eliminar la heterogeneidad causada en
la variable de inters (variable dependiente) por la influencia de una o ms
variables cuantitativas (covariables). Bsicamente, el fundamento del ANCOVA es
un ANOVA al que a la variable dependiente se le ha eliminado el efecto predicho
por una o ms covariables por regresin lineal mltiple. La inclusin de covariables
puede aumentar la potencia estadstica porque a menudo reduce la variabilidad.

ANLISIS NO PARAMTRICOS
Se denominan pruebas no paramtricas aquellas que no presuponen una
distribucin de probabilidad para los datos, por ello se conocen tambin como de
distribucin libre (distribution free). En la mayor parte de ellas los resultados
estadsticos se derivan nicamente a partir de procedimientos de ordenacin y
recuento, por lo que su base lgica es de fcil comprensin. Cuando trabajamos
con muestras pequeas (n < 10) en las que se desconoce si es vlido suponer la
normalidad de los datos, conviene utilizar pruebas no paramtricas, al menos para
corroborar los resultados obtenidos a partir de la utilizacin de la teora basada en
la normal.
Aunque el trmino no paramtrico sugiere que la prueba no est basada en un
parmetro, hay algunas pruebas no paramtricas que dependen de un parmetro
tal como la media. Las pruebas no paramtricas, sin embargo, no requieren una
distribucin particular, de manera que algunas veces son referidas como pruebas
de libre distribucin. Aunque libre distribucin es una descripcin ms exacta, el
trmino no paramtrico es ms comnmente usado. Las siguientes son las
mayores ventajas y desventajas de los mtodos no paramtricos.
Ventajas de los Mtodos No Paramtricos
1. Los mtodos no paramtricos pueden ser aplicados a una amplia variedad
de situaciones porque ellos no tienen los requisitos rgidos de los mtodos
paramtricos correspondientes. En particular, los mtodos no paramtricos
no requieren poblaciones normalmente distribuidas.

2. Diferente a los mtodos paramtricos, los mtodos no paramtricos pueden


frecuentemente ser aplicados a datos no numricos, tal como el gnero de
los que contestan una encuesta.
3. Los

mtodos

no

paramtricos

usualmente

involucran

simples

computaciones que los correspondientes en los mtodos paramtricos y


son por lo tanto, ms fciles para entender y aplicar.
Desventajas de los Mtodos No Paramtricos
1. Los mtodos no paramtricos tienden a perder informacin porque datos
numricos exactos son frecuentemente reducidos a una forma cualitativa.
2. Las pruebas no paramtricas no son tan eficientes como las pruebas
paramtricas, de manera que con una prueba no paramtrica generalmente
se necesita evidencia ms fuerte (as como una muestra ms grande o
mayores diferencias) antes de rechazar una hiptesis nula.
Cuando los requisitos de la distribucin de una poblacin son satisfechos, las
pruebas no paramtricas son generalmente menos eficientes que sus contrapartes
paramtricas, pero la reduccin de eficiencia puede ser compensada por un
aumento en el tamao de la muestra.
Segn HFyB, Para realizar anlisis no paramtricos debe partirse de las siguientes
consideraciones:

La mayora de estos anlisis no requiere n de presupuestos acerca de la


forma de la distribucin poblacional. Aceptan distribuciones no normales.

Las variables no necesariamente deben estar medidas en un nivel para


intervalos o de razn, pueden analizar datos nominales u ordinales. De
hecho, si se quiere aplicar anlisis no paramtricos a datos de intervalos o
razn, stos deben ser resumidos a categoras discretas (a unas cuantas).
Las variables deben ser categricas.

Mtodos o pruebas estadsticas no paramtricas ms utilizados.

La ji cuadrada o x2

Los coeficientes de correlacin en independencia para tabulaciones


cruzadas.

Los coeficientes de correlacin por rangos ordenados de Spearman y


Kendall.

La ji Cuadrada o x2

En estadstica, la distribucin de Pearson, llamada tambin ji cuadrada(o) o chi


cuadrado(a) (), es una distribucin de probabilidad continua con un parmetro
que representa los grados de libertad de la variable aleatoria

Donde

son

variables

aleatorias normales independientes de media cero

y varianza uno. El que la variable aleatoria


representa habitualmente as:

tenga sta distribucin se

La distribucin tiene muchas aplicaciones en inferencia estadstica. La ms


conocida es la de la denominada prueba utilizada como prueba de
independencia y como prueba de bondad de ajuste y en la estimacin de
varianzas. Pero tambin est involucrada en el problema de estimar la media de
una poblacin normalmente distribuida y en el problema de estimar la pendiente
de una recta de regresin lineal, a travs de su papel en la distribucin t de
Student.
Aparece tambin en todos los problemas de anlisis de varianza por su relacin
con la distribucin F de Snedecor, que es la distribucin del cociente de dos
variables aleatorias independientes con distribucin .

Los coeficientes de correlacin en independencia para tabulaciones


cruzadas.
Este son otros coeficientes para evaluar si las variables incluidas en la tabla de
contingencia o tabulacin cruzada estn correlacionadas; algunos coeficientes son
los siguientes:
Phi, Coeficiente de contingencia o C de Pearson, V de Gramer, Lamdba , Gamma,
Tau-b de Kendall(Tau-b) , D de Somers, Eta. etc.

Coeficientes de Correlacin por Rangos Ordenados de Spearman y


Kendall

Los coeficientes rhoi de Spearman, simbolizado por rs, y tau de Kendall,


simbolizado como t, son medidas de correlacin para variables en un nivel de
medicin ordinal, de tal modo que los individuos u objetos de la muestra pueden
ordenarse

por

rangos

UNIVERSIDAD SAN CARLOS DE GUATEMALA


CENTRO UNIVERSITARIO DE PETEN (CUDEP)
SECCIN POPTN

ESTADISTICA

jerarquas.

ING. MARIO RIVERA

MTODOS DE ANALISIS DE DATOS PARAMTRICOS Y NO PARAMTRICOS

KAREN AMABILIA HICHO OROZCO

CARN: 201343773

LICENCIATURA EN TRABAJO SOCIAL

POPTN, PETN 08 DE MAYO 2016.

S-ar putea să vă placă și