Sunteți pe pagina 1din 2

DEFINICIN DE ESTADSTICA INFERENCIAL

De acuerdo con el diccionario de la Real Academia Espaola, inferir significa "sacar una
consecuencia o deducir algo de otra cosa".
El principal objetivo de la Estadstica consiste en poder decir algo con respecto a un gran conjunto
de personas, mediciones u otros entes (poblacin) con base en las observaciones hechas sobre
slo una parte (muestra) de dicho gran conjunto. La capacidad para "decir algo" sobre poblaciones
con base en muestras est basada en supuestos con respecto a algn modelo de probabilidad que
permite explicar las caractersticas del fenmeno bajo observacin.
Al conjunto de procedimientos estadsticos en los que interviene la aplicacin de modelos de
probabilidad y mediante los cuales se realiza alguna afirmacin sobre poblaciones con base en la
informacin producida por muestras se le llama Inferencia Estadstica o Estadstica Inferencial.
Sin entrar demasiado en detalles, te comento que el proceso de inferencia estadstica consiste en
poder hacer afirmaciones sobre las caractersticas de una poblacin, a las cuales llamamos
parmetros, con base en informacin observada nicamente en un pequeo subconjunto de la
poblacin, llamado muestra.
De manera general, podemos hacer inferencia estadstica mediante:
Estimacin de parmetros, que puede ser puntual (un slo valor) o por intervalo
(intervalos de confianza). En este tipo de inferencia obtenemos, a partir de mediciones en
la muestra, un estadstico o valor que aproxima el verdadero valor del parmetro.
Contraste de hiptesis. Aqu hacemos una afirmacin sobre uno o ms parmetros, y
luego concluimos si lo observado en la muestra contradice o no tal afirmacin.
Elaboracin de modelos. Podramos considerar que este modo de inferencia combina los
dos tipos anteriores, ya que en l se establece de qu tipo son las relaciones entre
distintas variables que participan en un fenmeno, y con base en estimaciones puntuales y
contraste de hiptesis valoramos dichas relaciones.

ESTADSTICA PARAMTRICA Y NO PARAMTRICA
La Estadstica no paramtrica es una rama de la Estadstica que estudia las pruebas y modelos
estadsticos cuya distribucin subyacente no se ajusta a los llamados criterios paramtricos. Su
distribucin no puede ser definida a priori, pues son los datos observados los que la determinan.
La utilizacin de estos mtodos se hace recomendable cuando no se puede asumir que los datos
se ajusten a una distribucin normal o cuando el nivel de medida empleado no sea, como mnimo,
de intervalo. Las principales pruebas no paramtricas son las siguientes:
Prueba de chi-cuadrado
Prueba binomial
Prueba de Anderson-Darling
Prueba de Cochran
Prueba de Cohen kappa
Prueba de Fisher
Prueba de Friedman
Prueba de Kendall
Prueba de Kolmogorov-Smirnov
Prueba de Kruskal-Wallis
Prueba de Kuiper
Prueba de Mann-Whitney o prueba
de Wilcoxon
Prueba de McNemar
Prueba de la mediana
Prueba de Siegel-Tukey
Coeficiente de correlacin de
Spearman
Tablas de contingencia
Prueba de Wald-Wolfowitz
Prueba de los signos de Wilcoxon

Estadstica paramtrica, es la que requiere que los elementos que integran las muestras
contengan elementos parmetros o medibles.
La estadstica paramtrica clsica plantea tres tipos de problemas:
Estimacin puntual en la que pretendemos dar un valor al parmetro a estimar.
Estimacin por intervalos (buscamos un intervalo de confianza).
Contrastes de hiptesis donde buscamos contrastar informacin acerca del parmetro.
Las principales pruebas paramtricas son las siguientes:
Prueba del valor Z de la distribucin normal
Prueba T de Student para datos relacionados (muestras dependientes)
Prueba T de Student para datos no relacionados (muestras independientes)
Prueba T de Student-Welch para dos muestras independientes con varianzas no
homogneas
Prueba de ji cuadrada de Bartlett para demostrar la homogeneidad de varianzas
Prueba F (anlisis de varianza o ANOVA)

S-ar putea să vă placă și