Sunteți pe pagina 1din 16

UNIVERSIDAD NACIONAL DE CAJAMARCA

Facultad de ingenieria

ESCUELA ACADEMICO PROFESIONAL DE INGENIERIA DE MINAS

TEMA: ANALISIS DE SISTEMAS PARAMETRICOS Y NO

PARAMETRICOS

CURSO: TESIS I

DOCENTE: Ing. CHUQUIRUNA CHAVEZ, Wilder

ALUMNOS:

CUEVA LIMAY Omar

MERA TAVERA Kevin

PERALTA RODAS Pool Antoni

CICLO: VIII

CAJAMARCA DICIEMBRE DE 2017


NIVERSIDAD NACIONAL DE CAJAMARCA
Norte de la Universidad Peruana
Facultad de Ingeniera
Escuela Acadmico Profesional de Ingeniera de Minas

Contenido
INTRODUCCION ........................................................................................................................................... 3
OBJETIVOS .................................................................................................................................................... 4
Objetivo principal .................................................................................................................................... 4
Objetivo secundario ................................................................................................................................ 4
Prueba de hiptesis ..................................................................................................................................... 5
Anlisis paramtricos .................................................................................................................................. 5
Cules son los supuestos de las estadsticas paramtricas? ................................................................. 6
Mtodos o pruebas estadsticas paramtricas ms utilizadas............................................................ 6
Qu es el coeficiente de correlacin de Pearson? ................................................................................. 6
Qu es la regresin lineal? ........................................................................................................................ 9
Qu es la prueba de diferencia de proporciones? ...............................................................................10
Qu es el anlisis de varianza unidireccional o de un factor? (ANOVA one-way) .............................11
Anlisis no paramtricos ...........................................................................................................................12
Mtodos o las pruebas estadsticas no paramtricas ms utilizados ..............................................12
Qu es la chi cuadrada o 2? ..................................................................................................................12
Qu son los coeficientes de correlacin e independencia para tabulaciones cruzadas? .................13
Otra utilizacin tienen las tablas de contingencia .............................................................................13
Qu son los coeficientes de correlacin por rangos ordenados de Spearman y Kendall? ...............14
ANALISIS MULTIVARIADO .........................................................................................................................14
CONCLUSIONES ..........................................................................................................................................15
BIBLIOGRAFIA .............................................................................................................................................16

pg. 2
NIVERSIDAD NACIONAL DE CAJAMARCA
Norte de la Universidad Peruana
Facultad de Ingeniera
Escuela Acadmico Profesional de Ingeniera de Minas

INTRODUCCION
Un parmetro es un dato que es tomado como necesario para analizar o valorar una
situacin. A partir del parmetro, una determinada circunstancia puede entenderse o
situarse en perspectiva. Por ejemplo: Si nos basamos en los parmetros habituales,
resultar imposible comprender esta situacin, El paciente est evolucionando de
acuerdo a los parmetros esperados, Estamos investigando pero no hay parmetros que
nos permitan establecer una relacin con el caso anterior, La actuacin del equipo en el
torneo local es el mejor parmetro para realizar un pronstico sobre su participacin en el
campeonato mundial (Edgardo Jos Avils-Garay, Estadstica no paramtrica).

Para las matemticas, un parmetro es una variable que permite identificar, en una
familia de elementos, a cada uno de ellos mediante su valor numrico.

Un parmetro estadstico es una funcin definida sobre los valores numricos de una
poblacin. Se trata, por lo tanto de un valor representativo que permite modelizar la
realidad.

La utilidad de los parmetros estadsticos se encuentra ante la dificultad para manejar una
gran cantidad de datos individuales de una misma poblacin. Este tipo de parmetros
permite obtener un panorama general de la poblacin y realizar comparaciones y
predicciones.

En las ciencias de la computacin, un parmetro es una variable que puede ser recibida
por una rutina o una subrutina (que utilizan los valores asignados a un parmetro para
modificar su comportamiento en el tiempo de ejecucin).La parametrizacin de una base
de datos, por otra parte, es la organizacin y estandarizacin de la informacin que se
ingresa en un sistema. De esta forma, es posible realizar distintos tipos de consulta y
obtener resultados fiables. (Edgardo Jos Avils-Garay, Estadstica no paramtrica).

pg. 3
NIVERSIDAD NACIONAL DE CAJAMARCA
Norte de la Universidad Peruana
Facultad de Ingeniera
Escuela Acadmico Profesional de Ingeniera de Minas

OBJETIVOS

Objetivo principal
Conocer el anlisis de los sistemas paramtricos y no paramtricos

Objetivo secundario
Entender cules son los anlisis paramtricos y no paramtricos ms utilizados

pg. 4
NIVERSIDAD NACIONAL DE CAJAMARCA
Norte de la Universidad Peruana
Facultad de Ingeniera
Escuela Acadmico Profesional de Ingeniera de Minas

Prueba de hiptesis
Hay dos tipos de anlisis estadsticos que pueden realizarse para probar hiptesis: Los
anlisis paramtricos y los no paramtricos. Cada tipo posee sus caractersticas y
presuposiciones que lo sustentan; la eleccin de qu clase de anlisis efectuar depende de
estas presuposiciones. De igual forma, cabe destacar que en una misma investigacin es
posible llevar a cabo anlisis paramtricos para algunas hiptesis y variables, y anlisis no
paramtricos para otras. Asimismo, los anlisis a realizar dependen de las hiptesis que
hayamos formulado y el nivel de medicin de las variables que las conforman. (Roberto
Hernandez Sampieri-Metodologia de la investigacin 2010)

Anlisis paramtricos
Para realizar anlisis paramtricos debe partirse de los siguientes supuestos:

1. La distribucin poblacional de la variable dependiente es normal: el universo tiene una


distribucin normal.

2. El nivel de medicin de las variables es por intervalos o razn.

3. Cuando dos o ms poblaciones son estudiadas, tienen una varianza homognea: las
poblaciones en cuestin poseen una dispersin similar en sus distribuciones (Wiersma y
Jurs, 2008).

Ciertamente estos criterios son tal vez demasiado rigurosos y algunos investigadores slo
basan sus anlisis en el tipo de hiptesis y los niveles de medicin de las variables. Esto
queda a juicio del lector. En la investigacin acadmica y cuando quien la realiza es una
persona experimentada, s debe solicitrsele tal rigor. (Roberto Hernandez Sampieri-
Metodologia de la investigacin 2010)

pg. 5
NIVERSIDAD NACIONAL DE CAJAMARCA
Norte de la Universidad Peruana
Facultad de Ingeniera
Escuela Acadmico Profesional de Ingeniera de Minas

Cules son los supuestos de las estadsticas


paramtricas?
1. La distribucin poblacional de la variable dependiente es normal: el universo tiene una
distribucin normal.

2. El nivel de la medicin de la variable dependiente es por intervalo o razn

3. Cuando dos o ms poblaciones son estudiadas, stas tienen una varianza homognea,
es decir:

4. Las poblaciones en cuestin tienen una dispersin similar en sus distribuciones

Mtodos o pruebas estadsticas paramtricas ms utilizadas

Coeficiente de Correlacin de Pearson y la regresin lineal


Prueba t
Prueba de contraste de la diferencia de proporciones
Anlisis de varianza unidireccional (ANOVA Oneway)
Anlisis de varianza factorial (ANOVA)

Anlisis de covarianza (ANCOVA)

Qu es el coeficiente de correlacin de Pearson?


Definicin: es una prueba estadstica para analizar la relacin entre dos
variables medidas en un nivel por intervalos o de razn.
Se simboliza: r.
Hiptesis a probar: correlacional, del tipo de a mayor X, mayor Y, a mayor X,
menor Y, altos valores en X estn asociados con altos valores en Y , altos

pg. 6
NIVERSIDAD NACIONAL DE CAJAMARCA
Norte de la Universidad Peruana
Facultad de Ingeniera
Escuela Acadmico Profesional de Ingeniera de Minas

valores en X se asocian con bajos valores de Y . La hiptesis de investigacin


seala que la correlacin es significativa.
Variables: dos. La prueba en s no considera a una como independiente y a otra
como dependiente, ya que no evala la causalidad. La nocin de causa-efecto
(independiente-dependiente) es posible establecerla tericamente, pero la
prueba no asume dicha causalidad. El coeficiente de correlacin de Pearson se
calcula a partir de las puntuaciones obtenidas en una muestra en dos variables.
Se relacionan las puntuaciones recolectadas de una variable con las
puntuaciones obtenidas de la otra, con los mismos participantes o casos.
(Roberto Hernandez Sampieri-Metodologia de la investigacin 2010)
Nivel de medicin de las variables: intervalos o razn.
Interpretacin: el coeficiente r de Pearson puede variar de 1.00 a +1.00,
donde:

1.00 = correlacin negativa perfecta. (A mayor X, menor Y , de manera


proporcional. Es decir, cada vez que X aumenta una unidad, Y disminuye siempre una
cantidad constante.) Esto tambin se aplica a menor X, mayor Y .

0.90 = Correlacin negativa muy fuerte.

0.75 = Correlacin negativa considerable.

0.50 = Correlacin negativa media.

0.25 = Correlacin negativa dbil.

0.10 = Correlacin negativa muy dbil.

0.0 = No existe correlacin alguna entre las variables.

+0.10 = Correlacin positiva muy dbil.

pg. 7
NIVERSIDAD NACIONAL DE CAJAMARCA
Norte de la Universidad Peruana
Facultad de Ingeniera
Escuela Acadmico Profesional de Ingeniera de Minas

+0.25 = Correlacin positiva dbil.

+0.50 = Correlacin positiva media.

+0.75 = Correlacin positiva considerable.

+0.90 = Correlacin positiva muy fuerte.

+1.00 = Correlacin positiva perfecta. (A mayor X, mayor Y o a menor X, menor Y ,


de manera proporcional. Cada vez que X aumenta, Y aumenta siempre una cantidad
constante.)

El signo indica la direccin de la correlacin (positiva o negativa); y el valor numrico,


la magnitud de la correlacin. Los principales programas computacionales de anlisis
estadstico reportan si el coeficiente es o no significativo de la siguiente manera:

r = 0.7831 (valor del coeficiente)

s o P = 0.001 (significancia)

N = 625 (nmero de casos correlacionados)

Si s o P es menor del valor 0.05, se dice que el coeficiente es significativo en el nivel de


0.05 (95% de confianza en que la correlacin sea verdadera y 5% de probabilidad de
error). Si es menor a 0.01, el coeficiente es significativo al nivel de 0.01 (99% de confianza
de que la correlacin sea verdadera y 1% de probabilidad de error). (Briones, Guillermo,
Anlisis e Interpretacin de Datos, SECAB, 1992.)

O bien, otros programas como SPSS/PASW los presentan en una tabla, se seala con
asterisco(s) el nivel de significancia: donde un asterisco (*) implica una significancia menor
a 0.05 (quiere decir que el coeficiente es significativo en el nivel de 0.05, la probabilidad
de error es menor de 5%) y dos asteriscos (**) una significancia menor a 0.01 (la

pg. 8
NIVERSIDAD NACIONAL DE CAJAMARCA
Norte de la Universidad Peruana
Facultad de Ingeniera
Escuela Acadmico Profesional de Ingeniera de Minas

probabilidad de error es menor de 1%). (Roberto Hernandez Sampieri-Metodologia de


la investigacin 2010)

Qu es la regresin lineal?
Definicin: es un modelo estadstico para estimar el efecto de una variable
sobre otra. Est asociado con el coeficiente r de Pearson. Brinda la oportunidad
de predecir las puntuaciones de una variable tomando las puntuaciones de la
otra variable. Entre mayor sea la correlacin entre las variables (covariacin),
mayor capacidad de prediccin. (Briones, Guillermo, Anlisis e Interpretacin
de Datos, SECAB, 1992.)
Hiptesis: correlacionales y causales.
Variables: dos. Una se considera como independiente y otra como
dependiente. Pero, para poder hacerlo, debe tenerse un slido sustento
terico.
Nivel de medicin de las variables: intervalos o razn.
Procedimiento e interpretacin: la regresin lineal se determina con base en el
diagrama de dispersin. ste consiste en una grfica donde se relacionan las
puntuaciones de una muestra en dos variables. Vemoslo con un ejemplo
sencillo de ocho casos. Una variable es la calificacin en Filosofa y la otra
variable es la calificacin en Estadstica; ambas medidas, hipotticamente, de 0
a 10.

pg. 9
NIVERSIDAD NACIONAL DE CAJAMARCA
Norte de la Universidad Peruana
Facultad de Ingeniera
Escuela Acadmico Profesional de Ingeniera de Minas

Qu es la prueba t?

Definicin: es una prueba estadstica para evaluar si dos grupos difieren entre s de
manera significativa respecto a sus medias en una variable. Se simboliza: t.

Hiptesis: de diferencia entre dos grupos. La hiptesis de investigacin propone


que los grupos difieren de manera significativa entre s y la hiptesis nula plantea
que los grupos no difieren significativamente. Los grupos pueden ser dos plantas
comparadas en su productividad, dos escuelas contrastadas en los resultados a un
examen, dos clases de materiales de construccin cotejados en su rendimiento,
etctera. (Briones, Guillermo, Anlisis e Interpretacin de Datos, SECAB, 1992.)
Variables: la comparacin se realiza sobre una variable (regularmente y de manera
terica: dependiente). Si hay diferentes variables, se efectuarn varias pruebas t
(una por cada par de variables), y la razn que motiva la creacin de los grupos
puede ser una variable independiente. Por ejemplo, un experimento con dos
grupos, donde a uno se le aplica el estmulo experimental y al otro no, es de
control. (Roberto Hernandez Sampieri-Metodologia de la investigacin 2010)
Nivel de medicin de la variable de comparacin: intervalos o razn. Clculo e
interpretacin: el valor t es calculado por el programa estadstico, ya
prcticamente no se determina manualmente. Los programas, por ejemplo,
SPSS/PASW, arrojan una tabla con varios resultados, de los cuales los ms
necesarios para interpretar son el valor t y su significancia. Veamos primero un
ejemplo y luego una interpretacin de un resultado de un anlisis mediante SPSS.

Qu es la prueba de diferencia de proporciones?


Definicin: es una prueba estadstica para analizar si dos proporciones o
porcentajes difieren significativamente entre s.

pg. 10
NIVERSIDAD NACIONAL DE CAJAMARCA
Norte de la Universidad Peruana
Facultad de Ingeniera
Escuela Acadmico Profesional de Ingeniera de Minas

Hiptesis: de diferencia de proporciones en dos grupos.


Variable: la comparacin se realiza sobre una variable. Si hay varias, se efectuar
una prueba de diferencia de proporciones por variable.
Nivel de medicin de la variable de comparacin: cualquier nivel, incluso por
intervalos o razn, pero siempre expresados en proporciones o porcentajes.
Procedimiento e interpretacin: este anlisis puede realizarse muy fcilmente en el
programa STATS, subprograma: Diferencia de dos proporciones independientes. Se
colocan el nmero de casos y el porcentaje obtenido para cada grupo y se calcula.
Eso es todo. No se necesita de frmulas y tablas como se haca anteriormente.
(Briones, Guillermo, Anlisis e Interpretacin de Datos, SECAB, 1992.)

Qu es el anlisis de varianza unidireccional o de un


factor? (ANOVA one-way)
Definicin: es una prueba estadstica para analizar si ms de dos grupos difieren
significativamente entre s en cuanto a sus medias y varianzas. La prueba t se usa
para dos grupos y el anlisis de varianza unidireccional se usa para tres, cuatro o
ms grupos. Aunque con dos grupos se puede utilizar tambin.
Hiptesis: de diferencia entre ms de dos grupos. La hiptesis de investigacin
propone que los grupos difieren significativamente entre s y la hiptesis nula
propone que los grupos no difieren significativamente.
Variables: una variable independiente y una variable dependiente.
Nivel de medicin de las variables: la variable independiente es categrica y la
dependiente es por intervalos o razn.
El hecho de que la variable independiente sea categrica significa que es posible
formar grupos diferentes. Puede ser una variable nominal, ordinal, por intervalos o
de razn (pero en estos ltimos dos casos la variable debe reducirse a categoras).

pg. 11
NIVERSIDAD NACIONAL DE CAJAMARCA
Norte de la Universidad Peruana
Facultad de Ingeniera
Escuela Acadmico Profesional de Ingeniera de Minas

Anlisis no paramtricos
Para realizar los anlisis no paramtricos debe partirse de las siguientes consideraciones:

1. La mayora de estos anlisis no requieren de presupuestos acerca de la forma de la


distribucin poblacional. Aceptan distribuciones no normales. (Briones, Guillermo, Anlisis
e Interpretacin de Datos, SECAB, 1992.)

2. Las variables no necesariamente tienen que estar medidas en un nivel por intervalos o
de razn; pueden analizar datos nominales u ordinales. De hecho, si se quieren aplicar
anlisis no paramtricos a datos por intervalos o razn, stos necesitan resumirse a
categoras discretas (a unas cuantas). Las variables deben ser categricas (Briones,
Guillermo, Anlisis e Interpretacin de Datos, SECAB, 1992.)

Mtodos o las pruebas estadsticas no paramtricas ms


utilizados
Las pruebas no paramtricas ms utilizadas son:

1. La chi cuadrada o 2 .

2. Los coeficientes de correlacin e independencia para tabulaciones cruzadas.

3. Los coeficientes de correlacin por rangos ordenados de Spearman y Kendall.

Qu es la chi cuadrada o 2?
Definicin: es una prueba estadstica para evaluar hiptesis acerca de la relacin
entre dos variables categricas.
Se simboliza: 2 .
Hiptesis a probar: correlacionales.

pg. 12
NIVERSIDAD NACIONAL DE CAJAMARCA
Norte de la Universidad Peruana
Facultad de Ingeniera
Escuela Acadmico Profesional de Ingeniera de Minas

Variables involucradas: dos. La prueba chi cuadrada no considera relaciones


causales.
Nivel de medicin de las variables: nominal u ordinal (o intervalos o razn
reducidos a ordinales).
Procedimiento: se calcula por medio de una tabla de contingencia o tabulacin
cruzada, que es un cuadro de dos dimensiones, y cada dimensin contiene una
variable. A su vez, cada variable se subdivide en dos o ms categoras.

Qu son los coeficientes de correlacin e


independencia para tabulaciones cruzadas?
Adicionales a la chi cuadrada, existen otros coeficientes para evaluar si las variables
incluidas en la tabla de contingencia o tabulacin cruzada estn correlacionadas.

Este son otros coeficientes para evaluar si las variables incluidas en la tabla de
contingencia o tabulacin cruzada estn correlacionadas; algunos coeficientes son los
siguientes:

Phi, Coeficiente de contingencia o C de Pearson,


V de Gramer, Lamdba ,Gamma, Tau-b de Kendall(Tau-b) , D de Somers, Eta. etc.

Otra utilizacin tienen las tablas de contingencia


Adems de servir para el clculo de la chi cuadrado y otros coeficientes, son tiles para
describir conjuntamente a dos o ms variables. Esto se efecta convirtiendo las
frecuencias observadas en frecuencia relativa o porcentaje. En una tabla cruzada puede
haber tres tipos de porcentajes a cada celda:

Porcentaje en relacin al total de frecuencias observadas (N)


Porcentaje en relacin al total marginal de la columna
Porcentaje en relacin al total marginal del rengln

pg. 13
NIVERSIDAD NACIONAL DE CAJAMARCA
Norte de la Universidad Peruana
Facultad de Ingeniera
Escuela Acadmico Profesional de Ingeniera de Minas

Qu son los coeficientes de correlacin por rangos


ordenados de Spearman y Kendall?
Los coeficientes rhoi de Spearman, simbolizado por rs, y tau de Kendall, sim
bolizado como t, son medidas de correlacin para variables en un nivel de medi
cin ordinal, de tal modo que los individuos u objetos de la muestra pueden orde
narse por rangos o jerarquas. (Briones, Guillermo, Anlisis e Interpretacin de
Datos, SECAB, 1992.)
Ambos coeficientes varan de -
1.0 (correlacin negativa perfecta) a +1,0 ( correlacin positiva perfecta)

Estadsticas sumamente perfecta para variables ordinales

ANALISIS MULTIVARIADO
Los mtodos de anlisis multivariado son aquellos en donde se analiza la rel
acin entre varias variables independientes y al menos una dependiente.
Son mtodos que requieren del uso de computadoras para efectuar los clculos n
ecesarios

La regresin mltiple es un mtodo que permite analizar el efecto de dos o m


s variables independientes sobre una dependiente. Es una extensin de la regresi
n lineal slo que con un mayor nmero de variables independientes. (Roberto
Hernandez Sampieri-Metodologia de la investigacin 2010)

pg. 14
NIVERSIDAD NACIONAL DE CAJAMARCA
Norte de la Universidad Peruana
Facultad de Ingeniera
Escuela Acadmico Profesional de Ingeniera de Minas

CONCLUSIONES
Los anlisis paramtricos y no paramtricos nos ayudan a probar la hiptesis
planteada al problema, y se tendrn que elegir de acuerdo a las presuposiciones
que encontremos
Dentro de los sistemas paramtricos tenemos al coeficiente de correlacin de
Pearson, regresin lineal, prueba t y el anlisis de varianza unidireccional
(ANOVA) y dentro de los no paramtricos tenemos al chi cuadrada o 2, los
coeficientes de correlacin e independencia para tabulaciones cruzadas, los
coeficientes de correlacin por rangos ordenados de Spearman y Kendall.

pg. 15
NIVERSIDAD NACIONAL DE CAJAMARCA
Norte de la Universidad Peruana
Facultad de Ingeniera
Escuela Acadmico Profesional de Ingeniera de Minas

BIBLIOGRAFIA
Hernndez, Fernandez y Baptista, Metodologa de Investigacin, Ediciones
2 y5.
Briones, Guillermo, Anlisis e Interpretacin de Datos, SECAB, 1992.
Edgardo Jos Avils-Garay, Estadstica no paramtrica, pdf.
http://www.lapaginadelprofe.cl/UAconcagua/ICanalisisdatoscuantitativos.h
tm

pg. 16

S-ar putea să vă placă și