Sunteți pe pagina 1din 33

ESTADÍSTICA ELI AGUILAR

CAPÍTULO I: LA ESTADÍSTICA Y SU APLICACIÓN

La Estadística es una manera de pensar y tratar una problemática que plantea la realidad de
manera más elaborada, consciente y exacta que el pensamiento ingenuo, dando criterios de
decisión. La mayor aplicación de la Estadística se basa en la posibilidad de contar con
observaciones repetidas o realizar experimentos en condiciones idénticas. Cuando las
observaciones resultan diferentes a pesar de hacerlas en condiciones idénticas existe una
inseguridad vinculada a la observación del fenómeno. Esto lleva al problema central de la
Estadística, la teoría de la inseguridad, estudio de la tendencia de los resultados a variar cuando
se hacen observaciones en condiciones idénticas desde el punto de vista del observador
Definición: Estadística es un conjunto de métodos científicos con los cuales podemos recolectar,
resumir, presentar y analizar datos numéricos de un conjunto de individuos, que permiten extraer
conclusiones y tomar decisiones según dicho análisis. Aplicamos estadística cuando tenemos gran
cantidad de observaciones cuya aparición se rige por las leyes del azar. Yule: datos cuantitativos
fuertemente influenciados por múltiples causas. Gini: técnica adecuada al estudio cuantitativo de
fenómenos colectivos cuya medición requiere observaciones de fenómenos individuales

Historia
Estadística deriva de status que en el latín medieval significaba estado político. Se usó por
primera vez en Hamlet de Shaskespeare, luego en tratados de política económica y significaba la
exposición sistemática y ordenada de las características del estado, los censos, que se mencionan
en textos egipcios, en la Biblia hechos por Moisés y David, en China por Confucio, en Grecia y
Roma. La iglesia y su Concilio de Trento introduce la inscripción de matrimonios, nacimientos y
muertes. Hacia el siglo XVII adquirió autonomía y organización con Cónning, fundador de la
estadística en Alemania, estadística universitaria descriptiva. El nombre de estadística le fue
dado por Achenwald.

También en el siglo XVII surgen en Inglaterra los aritméticos políticos que pretendían una
estadística investigativa. Graunt fue de los primeros en realizar estadísticas de la población,
analizaba la influencia de las estaciones del año sobre la mortalidad, la afluencia de población
rural a la ciudad. De esta escuela derivaron dos: La enciclopedicomatemática que entronca con la
aparición del cálculo probabilístico. Representantes: Huyghens y su tratado sobre la probabilidad
de éxito y fracaso en las cartas y los dados. Pascal y Fermat y sus principios fundamentales del
cálculo de probabilidades. Bernouilli que lo aplicó a lo social. De Moivre y la formulación
matemática de la curva de probabilidad integral. Laplace y Gauss demostraron el valor practico
de la curva típica de la distribución de errores cometidos en las observaciones. Quetelet aplicó
esta curva a datos de tipo social y biológico originando la Antropometria. Galton, precursor de la
Psicometría en psicología, extendió la estadística a datos de tipo genético para el estudio de la
herencia de los caracteres somáticos y sus diferencias individuales. De él procede la escuela
inglesa de estadísticos y biometristas: Pearson, Yule, Spearman, Student, Thurstone. La otra
tendencia es la demográfica con Süssmilch y sus leyes de movimiento de la población
Variables
En la realidad observamos gran cantidad de distinciones sensibles, sobre las que podemos realizar
operaciones psicológicas de clasificación, seriación, y relación. El observador debe decidir cuales
serán sus entidades de estudio, las propiedades que quiere estudiar, las operaciones psicológicas
que quiere realizar. Esas operaciones se realizan sobre las propiedades de las entidades. Como
estas propiedades pueden variar, se llaman variables Si en un caso particular no varían, se llaman
constantes

BIBLIOGRAFÍA: AUTORES CITADOS POR LA DOCENTE DE CÁTEDRA Y CONSIGNADOS EN EL PROGRAMA DE LA MATERIA - LIC. EN PSICOLOGÍA ELISA NOEMÍ AGUILAR
ESTADÍSTICA ELI AGUILAR
2
La observación
La descripción científica se pone en marcha con la observación, que consiste en la percepción de
un dato sensible. Sobre los datos se pueden realizar las operaciones psicológicas de clasificación,
relación y seriación que permiten establecer distinciones entre los estados de las variables La
matemática por medio de la cuantificación establece distinciones entre los estados de las
variables asignando números a los estados. El recuento es muy utilizado en las ciencias sociales
cuando interesa saber el número de habitantes de una localidad, número de veces que en un
tiempo determinado interactúan entre si dos individuos. La estadística también tiene muchas
veces como materia prima operaciones de recuento
Posibilidad de medición en las ciencias sociales y de la conducta

“Todo lo que existe, existe en cierta cantidad”. En la investigación científica es esencial la


medición de fenómenos porque permite ver si hay variaciones, si son concomitantes, si se
relacionan. Cuando un físico mide, asigna números a las observaciones, los números pueden
analizarse por manipulaciones como contar o medir, según ciertas reglas. El psicólogo intenta
hacer lo mismo midiendo variables de comportamiento, pero para operar con los números que
asigna a las observaciones, la estructura de asignar números debe ser isomórfica. Para eso hay
que entender la naturaleza de la matemática.
Toda rama de las matemáticas comienza con un conjunto de postulados. Un postulado es un juicio
que establece relaciones entre objetos. Un postulado es útil por las conclusiones que podemos
sacar de el. En un sistema de postulados no debe haber dos que se contradigan y no deben
repetirse. Las deducciones lógicas que se sacan de los postulados son los teoremas

Postulados y teoremas están en el reino de las ideas, no refieren al mundo real. La función de las
matemáticas es proveer modelos convenientes para describir la naturaleza, pero esta no puede
ser descripta exactamente por modelos matemáticos, toda descripción es una aproximación. La
naturaleza no obedece a leyes matemáticas pero su estructura posee propiedades que son
similares, paralelas a la estructura de los sistemas lógicos matemáticos. Existe un isomorfismo o
equivalencia de estructuras.

La estadística y la investigación en las ciencias sociales y de la conducta


La estadística permite conocer y medir individuos u observaciones bajo dos puntos de vista:

1) En función a características del grupo y no a cualidades particulares, dando:


a) Conocimiento preciso de la composición del grupo por relevamiento de la característica medida
b) Conocimiento de cualidades abstractas ligadas al grupo mediante el cálculo resumido en:
1. La media o valor central típico del grupo
2. La desviación estándar, grado de variación de las observaciones respecto de la media
3. La forma de distribución de las observaciones: simetría o asimetría
4. El error estándar que permite conocer la cantidad de casos que deben tomarse para obtener
un determinado grado de seguridad o en que medida pueden ser generalizadas las conclusiones
c) Da el grado de asociación que puede existir entre dos variables
2) Se emplea con el fin de predecir o estimar una situación probable
Por eso la Estadística puede dividirse fundamentalmente en:
Estadística Descriptiva: Parte de un conjunto de datos y obtiene conclusiones de los mismos pero
no rebasan el conjunto de conocimientos que proporcionan esos datos.

Estadística Inferencial: Parte de un conjunto de datos pero las conclusiones obtenidas rebasan
los límites del grupo y permiten inferir valores para individuos o grupos dentro de ciertos límites
BIBLIOGRAFÍA: AUTORES CITADOS POR LA DOCENTE DE CÁTEDRA Y CONSIGNADOS EN EL PROGRAMA DE LA MATERIA - LIC. EN PSICOLOGÍA ELISA NOEMÍ AGUILAR
ESTADÍSTICA ELI AGUILAR
3
CAPITULO II: PRESENTACIÓN DE OBSERVACIONES Y SISTEMATIZACIÓN DE DATOS

Etapas de una investigación estadística


1. Elaboración del Diseño de Investigación: Será distinta si es de tipo descriptiva o explicativa.
Hay que planear que instrumentos se utilizarán (encuestas, censos, test); como se utilizarán los
resultados, sistema de codificación, tipo de tabulación (manual o mecanizada)
2. Compilación de los datos: relevamiento de la población o muestra. Datos primarios y
secundarios. Listado de la población y selección de la muestra. Enumeración de los datos
3. Sistematización de los datos: Tabulación, preparación de cuadros y gráficos, presentación gral
4. Análisis estadístico: hallar los estadísticos relativos a la tendencia central, variabilidad
asimetría, error estándar; inferencias para la población respectiva, estimaciones, decisiones
respecto al margen de error aceptable etc.
Para realizar el Análisis es necesario conocer la frecuencia que corresponde a cada categoría de
la variable, para ello se compilan y ordenan las observaciones. Determinada la frecuencia es
necesaria su presentación en algún sistema simbólico: tabular, gráfico, o fórmulas matemáticas.

Construcción de las tablas de distribución de frecuencias

La presentación tabular consiste en presentar en dos columnas, las categorías de las variables de
observación y las frecuencias correspondientes, de manera que en cada hilera se indica una
categoría y su frecuencia correspondiente. Un problema previo reside en la construcción de las
categorías que tiene por objeto destacar la influencia por parte de cada categorías en las
variaciones de frecuencia. Esto obliga a establecer un número de categorías no muy grande, para
que se destaquen las variaciones de frecuencias, ni muy pequeño para que no resulten absorbidas
las diferencias que queremos destacar.

Escala Nominal: La variable de observación corresponde a una escala nominal Los miembros de una
categoría deben ser idénticos respecto de la propiedad medida. Con estas escalas podemos
obtener frecuencias, expresarlas en términos de porcentajes, ver cual es la categoría de mayor
frecuencia (modo) y obtener algunas medidas de correlación. En un cuadro, la primera columna
corresponde a las categorías de clasificación de la variable y la segunda a la frecuencia
correspondiente a cada categoría. En una fila particular, al comienzo o al final, se coloca la
frecuencia total. El orden de sucesión de las categorías nominales no corresponden a una
característica de medición, sino a razones de presentación.

Escala Ordinal: Los elementos de una categoría no solo son distintos de los de otra categoría,
además están en alguna relación con ellos que se da en cierto orden. La medida de tendencia
central mas apropiada en estas escalas es la mediana. Se construyen con igual criterio que las
nominales pero la sucesión de las categorías del cuadro está dada por el criterio de la escala
según un orden de sucesión
Escalas de intervalos iguales y cocientes: La de intervalos iguales se caracteriza por una unidad
de medida constante que asigna un número real a cada par de objetos del conjunto ordenado. La
de cocientes es idéntica pero tiene en su origen tiene realmente un punto cero. Estas son
realmente escalas cuantitativas y a ellas pueden aplicarse todas las medidas estadísticas excepto
el coeficiente de variación a la de intervalos iguales. Se deben distinguir variables discretas de
continuas. Una variable es continua cuando entre dos valores sucesivos existen valores
intermedios. Permite cualquier grado de subdivisión (tallas, edades). Discreta es aquella en la que
entre valores sucesivos no hay intermedios (nº de hijos). Los puntajes de los test son discretos
pero se trabajan como continuas pues la aptitud subyacente se considera continua
BIBLIOGRAFÍA: AUTORES CITADOS POR LA DOCENTE DE CÁTEDRA Y CONSIGNADOS EN EL PROGRAMA DE LA MATERIA - LIC. EN PSICOLOGÍA ELISA NOEMÍ AGUILAR
ESTADÍSTICA ELI AGUILAR
4
En la variable discreta se agrupan valores en una categoría, en la variable continua no hay un
criterio para separar dos valores sucesivos porque entre ellos siempre se puede haber otro. Para
resolver esto usamos dos criterios, uno para las variables continuas en general y otro para la
edad. Si la cifra es muy larga, tomaremos la cantidad llamada cifra significativa: si la cifra real
siguiente a la última significativa es £ 5 se desprecia la cantidad residual (4,324 será 4,32) si la
cifra siguiente a la última significativa es ³ 5 se aumenta en una unidad la última cifra
significativa (4,328 será 4,33). Para la edad hay otra forma de construir intervalos, la
información de que alguien tiene 18 años puede corresponder a una edad real entre 18
años,0mes,0día,0hora, hasta 18 años,11meses, 29días,23horas, por lo que si se indica un intervalo
de 10-19 años sus limites reales serán 10años,0 mes,0día,0hora y 19 años,11meses, 29días.
La cantidad de intervalos como regla general no debe ser menor de l0 ni mayor de 20. Se toman
los datos en bruto, se los ordena y luego se agrupan observando cuantas observaciones
corresponden a cada intervalo Para ello se construye una tabla, la de distribución de frecuencias
Distribución de frecuencias:

Si tenemos datos agrupados a cada valor de la variable la llamamos clase, y la distancia entre sus
límites, intervalo de clase. El tamaño del intervalo de clase depende de la amplitud que abarcan
los valores de la variable y la cantidad de observaciones. Con pocos intervalos desperdiciamos
información, con muchos agregamos trabajo Conviene utilizar igual tamaño de intervalos
El punto medio, cuando el módulo es impar, es siempre un número entero, lo que facilita los
cálculos. Para hallarlo se suma el límite inferior y superior, y se divide por dos.

Por el agrupamiento se pierde información, ya que una vez tabuladas las observaciones no se
puede saber exactamente en que valor dentro del intervalo cae cada observación, se supone que
es el punto medio. Esto es el error por agrupamiento que se compensa cuando el numero de
observaciones es grande y cuando el módulo es pequeño.
Elementos para el análisis de distribuciones de frecuencias
El objetivo es analizar la relación entre las categorías de la variable y las frecuencias
correspondientes. 1) Un análisis consiste en relacionar cada frecuencia respecto al total de
observaciones. La forma mas elemental es establecer que proporción del total de frecuencias es
la frecuencia de esa categoría, para ello se divide la frecuencia de la categoría por el total de
frecuencias, dando como resultado (p = f / N) la frecuencia relativa de la categoría cuya suma da
igual a 1.Tiene el inconveniente de que las cantidades que resultan son menores a la unidad, por
ello muchas veces se expresan en forma de porcentajes, que se obtiene multiplicando por 100 el
producto de las proporciones. Se llama frecuencia relativa fr=f / Nx100 2) Otro análisis consiste
en encontrar la relación entre frecuencias correspondientes a dos categorías. Para eso dividimos
las dos frecuencias razón entre frecuencias r=fi/fj. La razón puede ser mayor que 1.
Distribuciones de frecuencias acumuladas
En escalas de niveles ordinales de intervalos o razones, se puede establecer un nuevo análisis que
consiste en determinar para cada categoría, la cantidad de observaciones menores o mayores que
ella. A través de las operaciones de suma y resta relacionamos una categoría con la inferior o
superior. Dada una categoría, la cantidad de observaciones que son menores o mayores que ella se
llama “frecuencia acumulada ascendente o descendente”. Su presentación se puede realizar de
modo tabular o grafico; en el último caso la presentación se llama ojiva y la figura geométrica
correspondiente es un polígono de frecuencias acumuladas que se utiliza para escalas de
intervalos o razones.

BIBLIOGRAFÍA: AUTORES CITADOS POR LA DOCENTE DE CÁTEDRA Y CONSIGNADOS EN EL PROGRAMA DE LA MATERIA - LIC. EN PSICOLOGÍA ELISA NOEMÍ AGUILAR
ESTADÍSTICA ELI AGUILAR
5
CAPITULO III: REDUCCIÓN DE LAS OBSERVACIONES Y MEDIDAS DE POSICIÓN

Reducir las observaciones significa presentar en lugar de toda la distribución, características que
indiquen aspectos fundamentales de esa distribución de frecuencias. Existen 4 características
que definen una distribución: tendencia central, dispersión, asimetría y curtosis. En escalas
nominales y ordinales solo se determina tendencia central. El poder de reducción está relacionado
con el nivel de la escala utilizado.

Medidas de tendencia central


La experiencia indica que para las escalas ordinales, de intervalos y razones, las observaciones de
las distribuciones de frecuencia tienden a concentrarse alrededor de un sector de la variable.
Existen criterios para representar con un valor o categoría de la distribución esa tendencia de
las observaciones que se llama tendencia central (modo, mediana, media aritmética, otras)
Modo
Se define como el valor o categoría de la variable que presenta la mayor frecuencia en la
distribución. Se puede utilizar como medida de tendencia central de distribuciones cuyas
observaciones se han medido con cualquier nivel. Se encuentra rápidamente a través de una
simple inspección ocular de la distribución, pero en realidad no da la tendencia de todas las
observaciones, sino que indica que la categoría de mayor frecuencia es una determinada. Para
usarse como medida de tendencia debe presuponerse que la distribución es conocida, se sepa que
relación guarda con el resto de la distribución o bien el resto tenga frecuencias que no sean
significativas respecto a la que tiene la mayor frecuencia. El modo para datos agrupados, no es
un valor exacto pues varia con las diferentes maneras de agrupar una distribución. Se pueden
presentar casos de distribuciones bimodales, con dos modos y hasta mas

Mediana
Es una medida de tendencia central de un conjunto de observaciones. Es la categoría o valor de la
distribución que posee el orden medio cuando las observaciones se ordenaron según los valores o
categorías de las variables. Esto hace suponer que se utiliza en escalas ordinales, de intervalos o
razones. En los datos sin agrupar medidos con escala ordinal, si el numero de observaciones es
impar, se ordenan los datos de mayor a menor y la categoría que ocupa el orden medio es la
mediana. Si el número de observaciones es par, la mediana es la observación cuya categoría es
mayor de las dos observaciones. En datos agrupados ya ordenados, se determina el orden medio
de las observaciones que es la mitad del total de observaciones. Para datos agrupados en escala
intervalar, la mecánica del cálculo es igual a la de escalas ordinales con la diferencia que se
determina, dentro del intervalo la ubicación exacta de la mediana
Media Aritmética
Denominamos media de la distribución a un valor X tal que si todas las observaciones tuvieran ese
valor, la suma total de ellas sería igual a la suma de las observaciones de la distribución original.
Si todas las observaciones estuvieran concentradas en un solo valor de la variable, el valor de la
media, mediana y modo coincidirían en ese valor. Pero si las observaciones se van distribuyendo en
forma simétrica, a la izquierda y derecha de ese valor central manteniendo la mayor parte de las
observaciones en el, media, mediana y modo siguen coincidiendo en ese valor. La media es más
sensible a las asimetrías que la mediana y el modo, pero tiene el inconveniente que cuando las
asimetrías son muy grandes, no define tan bien la tendencia central como la mediana, siendo
preferible utilizar esta última. La media es una medida de resumen mas poderosa que las
anteriores ya que tiene en cuenta las distancias que existen entre las diversas observaciones.
Solo se puede utilizar en escalas de intervalos.
BIBLIOGRAFÍA: AUTORES CITADOS POR LA DOCENTE DE CÁTEDRA Y CONSIGNADOS EN EL PROGRAMA DE LA MATERIA - LIC. EN PSICOLOGÍA ELISA NOEMÍ AGUILAR
ESTADÍSTICA ELI AGUILAR
6
Los valores de tendencia central en las distribuciones asimétricas
Las distribuciones empíricas son levemente asimétricas, y la media tiende siempre a situarse
hacia las observaciones más extremas. Con frecuencia, la mediana suele estar a las 2/3 partes de
la distancia entre el valor del modo y de la media. Una distribución asimétrica puede ser negativa
y positiva. Es positiva cuando la mayoría de las observaciones están a la izquierda de la proyección
de la media y es negativa cuando la mayoría de las observaciones están a la derecha dc la
proyección de la media.
Reglas prácticas para usar las medidas de tendencia central
Úsese la media cuando
1 Tenemos una escala de intervalos iguales o cocientes
2. Queremos mayor confiabilidad o queremos establecer inferencias de una muestra o
población
3. Se desean obtener otras medidas en la distribución, desviación estandar, correlaciones etc.
Úsese la mediana cuando
1. Tenemos una escala ordinal, de intervalos iguales o de cocientes.
2. Cuando existen clases de intervalos abiertas
Úsese el modo
1. En escalas nominales (aunque también puede usarse en todas las otras)
2. Si deseamos tener una idea aproximada de donde está la mayor concentración de
observaciones

CAPITULO IV: REDUCCIÓN DE OBSERVACIONES Y MEDIDAS DE DISPERSIÓN

Amplitud total: Es la diferencia entre el valor mas alto y mas bajo de una serie, entre el imite
superior real y el límite inferior real de una distribución de frecuencias. Es la medida mas simple
y se usa cuando solo queremos una comparación rápida entre dos distribuciones. No informa nada
de sus formas. No es muy confiable sobre todo cuando se trabaja con pocos casos o cuando
existen intervalos de frecuencia nula, solo se basa en dos observaciones extremas; el resto no
interviene en su determinación
Desviación media: Es la media aritmética de todas las desviaciones respecto de la media sin tener
en cuenta los signos (su valor absoluto) pues teniéndolo en cuenta la suma de los desvíos da
siempre 0. La barra indica el valor absoluto
Desviación standard: Es la raíz cuadrada de la media de los cuadrados de los desvíos respecto de
su media. Siempre es positiva. Se indica con una S. Es el índice de variabilidad más común y de
mayor confianza, aquel que varía menos cuando se calcula para distintas muestras extraídas de la
misma población o universo. Es un valor simple, un índice que representa las diferencias
individuales de las observaciones respecto a un punto de referencia común, que es la media
aritmética. Cuando este valor es más chico las diferencias de los valores respecto a la media, o
sea, los desvíos son menores, y por lo tanto el grupo de observaciones es más homogéneo que si el
valor de la desviación standard fuera más grande. A menor dispersión mayor homogeneidad en el
conjunto y a mayor dispersión menor homogeneidad

Coeficiente de variación: Sirve para comparar las dispersiones de dos o más distribuciones cuyas
observaciones han sido medidas con escalas de razones únicamente. La idea de esta medida surge
de pensar que exista cierta tendencia en las distribuciones de manera que cuanto mayor sea su
medida mayor será su desviación standard

BIBLIOGRAFÍA: AUTORES CITADOS POR LA DOCENTE DE CÁTEDRA Y CONSIGNADOS EN EL PROGRAMA DE LA MATERIA - LIC. EN PSICOLOGÍA ELISA NOEMÍ AGUILAR
ESTADÍSTICA ELI AGUILAR
7
TEORÍA DEL MUESTREO

¿Cuál es la diferencia entre un estadístico y un parámetro?


La Estadística descriptiva describe valores que se hallan considerando todas las observaciones
del grupo definido que se llama población, para una determinada variable. Pero casi nunca se
puede medir a todos los integrantes de la población, generalmente se extrae una muestra
representativa y calculamos en ella los valores que la describen. Cuando se puede trabajar con
toda la población de observaciones, los valores descriptivos hallados se llaman parámetros,
cuando se trabaja con muestra, los valores descriptivos hallados se llaman estadísticos. Los
estadísticos son estimadores de los parámetros.
¿Qué implica el supuesto de independencia dentro de una muestra aleatoria?

La muestra simple al azar cumple el requisito probabilístico de la independencia dando a cada


elemento de la población, o a toda combinación de ellos, igual probabilidad de ser elegidos para la
muestra. Esto ocurre siempre que la probabilidad de extraer un elemento sea independiente de la
probabilidad de extraer otro, o sea que si se trata de una población finita efectuemos el
reemplazo. Si no lo efectuáramos la probabilidad de cada extracción sucesiva no sería
independiente. La cantidad de unidades del universo puede ser finita o infinita. Cuando se realiza
muestra de un universo finito se trabaja con muestra sin reemplazo, en cambio cuando se trabaja
con reemplazo se trabaja con un universo infinito.
¿En qué casos no es tan importante efectuar el reemplazo en el muestreo al azar simple?
Ejemplo

No es tan importante hacer el reemplazo cuando la diferencia entre el número de elementos de la


población y el numero de elementos de la muestra es grande. Es más importante hacer el
reemplazo en una población de 1000 elementos cuya muestra es 300 que en una población de
5000 cuya muestra es 400.
¿Se puede obtener una muestra representativa que no sea probabilística? ¿Porqué?

No es posible obtener una muestra no probabilística que sea representativa, pues si hablamos de
representatividad, esta debe interpretar fielmente a la población, y la muestra no probabilística
suponen un procedimiento de selección informal y arbitrario, y como no puede calcularse el error
estandar no puede generalizarse a la población, solo se usa como una primera aproximación y en
trabajos de tipo piloto
¿En qué teoría se basa el muestreo? ¿Porqué?

El muestreo se basa en la Teoría de las Muestras, ya que su objeto es obtener, por camino
inferencial, conclusiones validas para la población, partiendo de la observación de una parte,
denominada muestra. Al decir inferencial nos referimos a que a partir de los valores hallados en
las muestras inferimos los valores más probables para las poblaciones de las cuales provienen
dichas muestras.
¿Para qué se muestrea?

Se recurre a una muestra cuando no se cuenta con recursos económicos, humanos, etc. A veces la
muestra es el único recurso. El trabajo sobre una muestra se llama muestreo y las conclusiones
obtenidas a partir ellas permiten: A) Probar hipótesis validas para la población, con la
información de la muestra B) Estimar características de la población, denominadas parámetros, a
partir de los estadísticos

BIBLIOGRAFÍA: AUTORES CITADOS POR LA DOCENTE DE CÁTEDRA Y CONSIGNADOS EN EL PROGRAMA DE LA MATERIA - LIC. EN PSICOLOGÍA ELISA NOEMÍ AGUILAR
ESTADÍSTICA ELI AGUILAR
8
¿Qué es el error de muestreo o error muestral?
Los resultados que se obtienen cuando se calcula algo a partir de la muestra son diferentes a los
obtenidos si se trabaja con el 100 % de los involucrados. La diferencia es el error de muestreo,
siempre que los datos se reúnan empleando métodos idénticos. Para calcularlo se debe conocer la
población

Mencione y explique otros tipos de errores que pueden cometerse al muestrear.

Errores de información y procesamiento: Los datos básicos pueden ser mal proporcionados,
acentados, copiados, codificados, u omitidos. Alguien podrá llegar a dar distintas cifras para el
mismo ítem (edad).
Errores por falta de respuestas: Son los que se dan por utilizar datos provistos solo por algunas
personas que responden a un cuestionario. No se puede suponer que los ausentes o quienes no
responden tienen la misma característica y en el mismo grados que los que contestan y están.
Error en la selección de las muestras: Se dan cuando la selección de las unidades de la muestra es
incorrecta y anticientífica. Entra en esta categoría las muestras parciales (elegidas por razones
de conveniencia), las muestras dirigidas y la muestra por cuotas
¿Qué son las unidades primarias de muestreo y qué son las unidades elementales de
muestreo?

No es frecuente hacer muestreo de grupos completo. Se suele seleccionar el universo en dos o


más etapas. En una muestra de dos etapas, los grupos se seleccionan al azar, luego se toma una
submuestra al azar en cada grupo. Los primeros son las unidades primarias de muestreo y las
submuestras, unidades elementales

¿Qué es el esquema y con qué otro nombre lo denominan los autores?

Para poder seleccionar una muestra debemos tener el universo “al alcance de la mano”; a veces
esto es sencillo, otras no. Lo más conveniente es contar con un conjunto de información escrita
que permita individualizar el universo, individuo por individuo, y así elegirlos según un método. La
información escrita se denomina esquema o marco de referencia y puede presentarse como
listado, mapa, registro.
Mencione y explique brevemente los pasos del muestreo, según Slonim

1) Determinar con toda la precisión posible la población o universo que se ha de estudiar.

2) Determinar el marco de referencia de la muestra reuniendo en una lista todas las unidades del
universo.
3) Definir con exactitud y claridad los datos que se pretenden obtener en el estudio. Si no se
especifica esto, puede que los cuestionarios arrojen resultados distintos de los que en realidad se
espera. Y antes de avanzar conviene averiguar si los datos que se buscan no fueron ya obtenidos
por otro y cerciorarse de que los datos que se enumeran sean absolutamente necesarios para dar
cumplimiento a los fines del estudio.
4) Especificar el grado de precisión que desean obtener los usuarios de los datos de la muestra

5) Investigar la eficiencia relativa de distintos tipos de muestra según el grado de precisión


especificado. (costo, eficiencia, factor tiempo y administrativo)

6) En caso que en el estudio se emplee cuestionario o formulario conviene pensarlos de antemano


para que se obtengan respuestas correctas para las preguntas que se formulan.

BIBLIOGRAFÍA: AUTORES CITADOS POR LA DOCENTE DE CÁTEDRA Y CONSIGNADOS EN EL PROGRAMA DE LA MATERIA - LIC. EN PSICOLOGÍA ELISA NOEMÍ AGUILAR
ESTADÍSTICA ELI AGUILAR
9
7) Aplicar un ensayo preliminar con los formularios, cuestionarios e instrucciones, procedimiento
barato e indispensable. Los formularios e instrucciones finales mejoran como consecuencia del
ensayo.
8) Explicar con la mayor sencillez posible los límites de los resultados de la muestra al
presentarlos

¿De qué factores depende la magnitud de una muestra?

La magnitud de la muestra depende del grado de precisión que se requiera, de la variabilidad


entre los datos que se muestrean (heterogeneidad), del método de muestreo que se utilice y del
procedimiento de estimación que se use. Se examina cada método de muestreo
administrativamente factibles, y se selecciona el que proporcionase el grado deseado de precisión
a menor costo. Esto podría entrañar la selección de un método que requiere una muestra más
grande que otra, pero con un costo mas bajo.
¿Para qué se utiliza el muestreo no probabilístico?
Las muestras no probabilísticas no tienen carácter científico, pero pueden ser de ayuda en
estudios de naturaleza preliminar, frecuentes en sociología y psicología o cuando no se cuenta con
el listado del universo. Los muestreos no probabilísticos mas usados son muestreo por cuotas y
muestra autogenerada..

¿Cuál es la diferencia entre “precisión” y “exactitud” en el cálculo?

En la profesión estadística se acostumbra aludir a la precisión y no a la exactitud de los cálculos


basados en muestras. La exactitud de un calculo es el grado en que este se aproxima a la cifra
real, mientras que la precisión, refleja el grado en que se aproxima la cifra que se obtendría con
un análisis del 100 por ciento, si se empleasen métodos idénticos de recolección de datos.

¿Cuáles son los elementos que especifican el grado de precisión que se desea de una
estimación?

La especificación del grado de precisión consta de dos elementos: un límite de error que se llama
grado de tolerancia y un límite de riesgo que se llama grado de confianza que es el porcentaje de
seguridad que existe para generalizar los resultados obtenidos, un porcentaje del 100% equivale
a decir que no existe ninguna duda para generalizar tales resultados, esto implica estudiar toda la
población.

¿Cómo se puede cometer un bias en la utilización del marco de referencia dentro del
muestreo?

Se comete un bias cuando el marco de referencia de las unidades de muestreo no comprendió a


todas las unidades de la población Esto sucede en el estudio real, cuando las diferencias entre los
datos del marco de referencia y los datos del universo no son desdeñables, allí hay un bias (error
sistemático) en los resultados de la muestra.
¿Cuáles son las limitaciones del muestreo, según Slonim? Explique.
Las limitaciones del muestreo es que no siempre es útil, por ejemplo si se requiere conocimiento
acerca de cada unidad del universo estadístico o cuando la población presenta un altísimo grado
de variabilidad (muy heterogénea)
¿Cuáles son las ventajas y desventajas del muestreo por conglomerados?
El objeto del método por conglomerados consiste en dividir la población en sectores llamados
conglomerados, cuya característica fundamental es que las entidades sean lo mas heterogéneas

BIBLIOGRAFÍA: AUTORES CITADOS POR LA DOCENTE DE CÁTEDRA Y CONSIGNADOS EN EL PROGRAMA DE LA MATERIA - LIC. EN PSICOLOGÍA ELISA NOEMÍ AGUILAR
ESTADÍSTICA ELI AGUILAR
10
entre si dentro de cada conglomerado y que lo mas homogéneos posibles entre conglomerados. La
ventaja es que las entrevistas se realizan en distancias cortas, es mas económica en tiempo,
dinero y recursos humanos. La desventaja es que en general, el error de muestra por
conglomerado es mayor que en el método al azar simple, es mayor cuanto mas grande es el tamaño
del conglomerado. Se pueden observar dos errores principales: tamaño del conglomerado y la
heterogeneidad dentro de el.

¿Cómo debe ser la homogeneidad y heterogeneidad en muestreos estratificados y por


conglomerados?

En los muestreos por conglomerado los resultados mas precisos se obtienen cuando dentro de
cada grupo hay una mezcla lo mas variada posible y cuando cada grupo es lo mas similar posible a
los demás. Para una muestra estratificada eficaz los estratos deben ser lo mas homogéneos
posibles, y lo mas distinto (heterogéneo) que se pueda entre sí
Elabore un ejemplo para cada uno de los cuatro tipos de muestreo probabilísticos:
A. Muestreo al Azar Simple: Si en un curso de 50 alumnos, necesitamos elegir 2 personas para
que sean las representantes frente a las autoridades; podríamos poner en una bolsa 50 papelitos
de igual tamaño, y doblarlos de la misma manera escribiendo en ellos los nombres de cada alumno.
Una persona que no este dentro de las 50, elegirá dos papeles al azar. Estas personas tendrán la
misma posibilidad de ser elegidas. Una vez elegida la persona Nº 1 se la debe volver a introducir
en la caja o bolsita, es decir se debe realizar el “reemplazo” para que haya independencia entre
un papelito (elemento) y otro.

B) Muestreo Sistemático: Si se desea muestrear ¿Cuántas personas de primer año de psicología


(considerando que existen 3 comisiones de 100 alumnos cada una), tienen el libro de
neuropsicología?

Podríamos tomar una muestra de 60 personas; en este caso deberíamos fijar el intervalo, que se
saca, dividiendo la cantidad total de elementos que componen el listado por la cantidad de
elementos que componen la muestra; entonces aquí deberíamos hacer 300 (cantidad total)
dividido 60 (muestra), que daría un total de 5, así se debe tomar un elemento cada 5 personas. En
este caso al primer individuo se lo elige por el método del muestreo al azar simple; es decir se
saca un numero del 1 al 5(limite superior del primer intervalo) supongamos que sea 3, el próximo
numero elegido será 8 y así sucesivamente.
C) Muestreo Estratificado al Azar: Si queremos saber el porcentaje de materias aprobadas en
alumnos de la carrera de Psicología, este procentaje está en estrecha relación, en la mayoría de
los casos con el año que se encuentra cursando cada alumno. Por eso debería hacerse un muestreo
estratificado, tomando, alumnos de 1º año de la carrera, alumnos de 2º año de la carrera, y así
sucesivamente. Luego puede obtenerse una submuestra por azar simple
D) Muestreo por Conglomerados al Azar: Este lo podríamos utilizar supongamos si nosotros
queremos saber ¿Cuántas personas de entre 3 y 8 años y cuantas de entre 40 y 65 año
viven en cada casa del el barrio el Tribuno? Aquí deberíamos dividir la población (todo el barrio
el Tribuno) en conglomerados por ejemplo cada manzana del barrio. Así se elegirá una muestra de
conglomerados y se observan todas las entidades dentro de cada uno de ellos. Para que esto
suceda las entidades dentro de los conglomerados deben ser lo mas heterogéneas posible y los
conglomerados lo mas homogéneos posible.

BIBLIOGRAFÍA: AUTORES CITADOS POR LA DOCENTE DE CÁTEDRA Y CONSIGNADOS EN EL PROGRAMA DE LA MATERIA - LIC. EN PSICOLOGÍA ELISA NOEMÍ AGUILAR
ESTADÍSTICA ELI AGUILAR
11
ESTADÍSTICA INFERENCIAL

CAPÍTULO I - INTRODUCCIÓN

Un tema central de la estadística es la Inferencia Estadística. Esta se interesa en: la estimación de


los parámetros de la población y las pruebas de hipótesis. Le interesa sacar conclusiones de un gran
número de hechos basándose en las observaciones de una parte. Los procedimientos de la inferencia
estadística introducen orden en una inferencia a partir del testimonio muestral. Hay condiciones en
que los testimonios deben reunirse y las pruebas estadísticas determinan cuán grandes deben ser las
diferencias observadas antes de confiar que representarán diferencias reales en el grupo mayor.
Los procedimientos de la inferencia estadística permiten determinar, en términos de probabilidad, si
la diferencia entre dos muestras está dentro del rango en el que podría aparecer fácilmente por azar,
o si es tan grande que indica que las muestras son, probablemente, de dos poblaciones diferentes.
Otro problema es determinar la probabilidad de que una muestra de puntajes sea de una población
específica y otro el de decidir si podemos inferir legítimamente que varios grupos difieren entre sí.
Ya que los valores de población son parámetros, estas técnicas estadísticas se llaman paramétricas.
Estas técnicas conducen a conclusiones con limitaciones, “Si las suposiciones respecto a la forma de la
población son válidas, entonces podemos concluir que...”. También se desarrollaron técnicas de
inferencia que no hacen suposiciones numerosas ni severas acerca de los parámetros. Estas nuevas
distribuciones libres o técnicas no paramétricas permiten sacar conclusiones con menos reservas. A
Algunas pruebas no paramétricas se las llama “pruebas de rango” o “pruebas de orden”
Las técnicas paramétricas solo se usan con puntajes realmente numéricos, las no paramétricas se
fijan en el orden o rango de puntajes, no en sus valores numéricos, otras se pueden utilizar con datos
que ni siquiera presentan orden. Mientras una prueba paramétrica pondrá su atención en la diferencia
entre las medias de dos conjuntos de puntajes, la no paramétrica se fijará en la diferencia entre las
medianas. Calcular la media requiere operaciones aritméticas, calcular la mediana solo exige contar

CAPÍTULO II – USO DE LAS PRUEBAS ESTADÍSTICAS EN LA INVESTIGACIÓN

Para decidir con objetividad si una hipótesis es confirmada por un conjunto de datos, se precisa un
procedimiento que lleve a un criterio objetivo para rechazar o aceptar esa hipótesis. El procedimiento
objetivo debe basarse en la información obtenida al investigar y en el margen de riesgo que estemos
dispuestos a aceptar si el criterio de decisión respecto a la hipótesis resulta incorrecto. Pasos:
1) Formulación de la hipótesis de nulidad (Ho)
2) Elección de una prueba estadística para probar Ho. De las pruebas que pueden usarse en un diseño
dado hay que escoger aquella cuyo modelo se aproxima mas a las condiciones de la investigación y
cuyos requisitos de medición satisfacen las medidas usadas en la investigación
3) Especificación del nivel de significación µ y del tamaño de la muestra N
4) Encuentro (o suposición) de la distribución muestral de la prueba estadística conforme a Ho
5) Definición de la región de rechazo
6) Cálculo del valor de la prueba estadística con los datos de la muestra. Si el valor desciende a la
zona de rechazo, se rechaza Ho, si el valor cae fuera de la región de rechazo Ho no puede rechazarse
1) Hipótesis de nulidad: La Hipótesis nula es una hipótesis de diferencias nulas. Es formulada con la
intención de ser rechazada. Si se rechaza puede así aceptarse la hipótesis alterna Ho. La hipótesis
alterna es la aseveración operacional de la hipótesis de investigación. La hipótesis de investigación es
la predicción que deriva de la teoría a probar. La naturaleza de la hipótesis de investigación determina
como debe ser formulada Ho. Si la hipótesis de investigación solo dice que los dos grupos difieren
respecto a las medias, entonces Ho será m1 ¹m2. Pero si la teoría predice la dirección de la diferencia,
que un grupo específico tiene una media mayor que el otro, entonces Ho puede ser m1>m2 o que m1<m2
BIBLIOGRAFÍA: AUTORES CITADOS POR LA DOCENTE DE CÁTEDRA Y CONSIGNADOS EN EL PROGRAMA DE LA MATERIA - LIC. EN PSICOLOGÍA ELISA NOEMÍ AGUILAR
ESTADÍSTICA ELI AGUILAR
12
2) Elección de la prueba estadística: La estadística cuenta con pruebas estadísticas susceptibles de
usarse alternativamente para tomar decisiones acerca de las hipótesis.

3) Nivel de Significación y Tamaño de la Muestra: Antes de recoger los datos, se especifica el


conjunto de todas las posibles muestras que se encuentran si Ho es verdadera. De este conjunto se
extrae un subconjunto de características tan extremas que reducen mucho la probabilidad, si Ho es
verdadera, de que la muestra que se observa esté entre ellas. Por tanto, si en la investigación se
observa una muestra incluida en ese subconjunto, se rechaza Ho. El procedimiento es rechazar Ho
para aceptar H1 si una prueba estadística produce un valor cuya probabilidad de ocurrencia bajo Ho
es igual o menor que una pequeña probabilidad µ. Esta pequeña probabilidad se llama Nivel de
significación. Así, si la probabilidad asociada con lo que ocurre en Ho del valor particular producido
por una prueba estadística es igual o menor que µ, rechazamos Ho y aceptamos Ho.

Como el valor de µ juega un papel crucial al determinar el rechazo de Ho o su aceptación, la


objetividad exige que el valor de µ se indique antes de recoger los datos. El nivel que se elige para µ
debe determinarse por la estimación que se haga de la incidencia de los descubrimientos.

Dos tipos de errores pueden cometerse acerca de Ho. 1) Error tipo I: rechazar Ho siendo verdadera.
2) Error tipo II: aceptar Ho siendo falsa. La probabilidad de cometer el error tipo I está dada por µ.
Cuanto mayor sea µ, mas probable es que Ho sea rechazada equivocadamente, mas probable que se
cometa error tipo I. El error tipo II se representa con b. µ y b indican tipo de error y probabilidad
de cometerlo. En condiciones ideales µ y b determinan que tamaño de muestra N escoger para
calcular la prueba estadística que se haya elegido. Pero en la práctica es común que µ y N se
especifiquen por adelantado. Una vez que µ y N se especificaron queda determinada b. Como hay una
relación inversa entre las probabilidades de cometer ambos tipos de errores, al decrecer µ se
incrementa b para cualquier N. Si se desea reducir la posibilidad de ambos errores, se debe
incrementar N.
Potencia de una prueba: Probabilidad de rechazar Ho cuando es realmente falsa. P=1–pr. error tipoII
P=1- b. Las probabilidades de cometer un error tipo II (b) disminuye a medida que el tamaño de la
muestra N se incrementa, de modo que la potencia aumenta al crecer el tamaño de N
Conclusiones:
a) El nivel de significación µ comprende la probabilidad de obtener en una prueba estadística un valor
que implica el rechazo de Ho, siendo verdadera. µ indica la probabilidad de cometer error tipo I
b) La probabilidad de que una prueba estadística produzca un valor conforme al cual Ho será aceptada
cuando en realidad es falsa, es b. b señala la probabilidad de cometer error tipo II
c) La potencia de una prueba, 1 - b, mide la probabilidad de rechazar acertadamente Ho
d) La potencia está relacionada con la naturaleza de la prueba estadística elegida
e) La potencia de una prueba estadística se incrementa al aumentar N
4) Distribución Muestral: La distribución muestral es una distribución teórica. la obtendríamos al
tomar al azar todas las muestras posibles de un mismo tamaño, extraídas de una misma población, es
la distribución, conforme a Ho, de todos los valores posibles que una estadística (como la media)
puede tomar cuando es calculada con muestras de igual tamaño tomadas al azar.

5) Región de Rechazo: Es una región de la distribución muestral, incluye todos los valores posibles
que una prueba estadística puede tomar según Ho. Es un subconjunto de estos valores de manera que
la probabilidad de ocurrencia de una prueba estadística según Ho, cuyo valor esté en ese subconjunto
sea µ. Es un conjunto de valores posibles tan extremos que cuando Ho es verdadera, es muy pequeña
la probabilidad µ de que la muestra observada produzca un valor que esté entre ellos. La probabilidad
asociada con cualquier valor de la región de rechazo es igual o menor que µ.

BIBLIOGRAFÍA: AUTORES CITADOS POR LA DOCENTE DE CÁTEDRA Y CONSIGNADOS EN EL PROGRAMA DE LA MATERIA - LIC. EN PSICOLOGÍA ELISA NOEMÍ AGUILAR
ESTADÍSTICA ELI AGUILAR
13
La localización de la región de rechazo es efectada por la naturaleza de Ho. Si Ho indica la dirección
predicha de la diferencia se requiere una prueba de una cola. Si Ho no indica la dirección de la
diferencia se requiere una prueba de dos colas. Las pruebas de una y dos colas se distinguen en la
localización, no en el tamaño, de la zona de rechazo. En una de dos colas, la región de rechazo está en
ambos extremos de la distribución muestral. En una de una cola está en un extremo. El tamaño de la
zona de rechazo se expresa por µ que es el nivel de significación. Si µ = 0.05 entonces el tamaño de la
región de rechazo es el 5 % del área total comprendida bajo la curva de la distribución normal.
6) La decisión: Si la prueba estadística da un valor que está en la región de rechazo se rechaza Ho. El
razonamiento en que se apoya este proceso es simple. Si es muy pequeña la probabilidad asociada con
la ocurrencia conforme a Ho de un valor particular en la distribución muestral, podemos explicar la
ocurrencia efectiva de ese valor de dos maneras: suponiendo que la Ho es falsa o que un evento raro e
improbable sucedió. Se elige el primer razonamiento, aunque a veces el segundo puede ser correcto.
La probabilidad de que la segunda opción sea correcta está dada por µ pues el rechazo de Ho cuando
es verdadera es error tipo I. Cuando la probabilidad asociada con un valor observado de una prueba
estadística es menor o igual que el valor previamente determinado de µ, concluimos que Ho es falsa.
El valor observado es llamado “significativo”. La hipótesis en prueba, Ho, se rechaza siempre que
ocurra un resultado “significativo”. por tanto, se llama valor “significativo” a aquel cuya probabilidad
asociada de ocurrencia de acuerdo a Ho es menor o igual que µ

CAPÍTULO III – ELECCIÓN DE LA PRUEBA ESTADÍSTICA ADECUADA

Cuando se disponen de varias pruebas estadísticas para un diseño de investigación dado, se debe
emplear un criterio de elección, ya se vio el de potencia, ahora se verán otros. Una prueba estadística
es buena si es pequeña la probabilidad de rechazar Ho siendo verdadera y grande la probabilidad de
rechazar Ho siendo falsa. Pero otras consideraciones además de la potencia determinan la elección de
la prueba estadística. En la elección debemos considerar la manera en que la muestra de puntajes fue
obtenida, la naturaleza de la población de la que se sacó la muestra y la clase de medición o escala que
se empleó en las definiciones operacionales de las variables usadas, es decir, los puntajes.
El Modelo Estadístico
Al haber afirmado la naturaleza de la población y el método de muestreo, hemos establecido un
modelo estadístico. Cualquier prueba estadística implica un modelo y un requisito de medida. Las
condiciones del modelo estadístico de un a prueba se llaman “suposiciones de la prueba”. A menores o
mas débiles suposiciones habrá conclusiones generales. Pero las pruebas mas poderosas son las
apoyadas por suposiciones mas fuertes y amplias.

Potencia – Eficiencia
A menores o mas débiles suposiciones de un modelo particular, mas generales son las conclusiones
derivadas al aplicar la prueba estadística asociada con él, pero menos poderosa es la prueba de Ho.
Esta afirmación es generalmente verdadera para cualquier tamaño de muestra, pero no se sostiene al
comparar dos pruebas estadísticas que se aplican a dos muestras de tamaño desigual.

El concepto de Potencia – Eficiencia se refiere al incremento en el tamaño de la muestra necesario


para hacer la prueba B tan poderosa como la A. Al ser la prueba A, la mas poderosa de su tipo (cuando
se usa con datos que satisfacen sus condiciones) al ser la prueba B, que se presta al mismo diseño de
investigación, tan poderosa con Nb casos como la pruena A con Na casos, tenemos que: Potencia-
Eficiencia de la prueba B = (100) Na/Nb %

BIBLIOGRAFÍA: AUTORES CITADOS POR LA DOCENTE DE CÁTEDRA Y CONSIGNADOS EN EL PROGRAMA DE LA MATERIA - LIC. EN PSICOLOGÍA ELISA NOEMÍ AGUILAR
ESTADÍSTICA ELI AGUILAR
14
Medición
La medición es la asignación de números a observaciones, de modo que los números sean susceptibles
de análisis por medio de manipulaciones u operaciones de acuerdo con ciertas reglas. La relación entre
los objetos que se están observando y los números es tan directa que mediante la manipulación se los
números se obtiene nueva información acerca de los objetos. El científico social que toma la física
como modelo, para hacer operaciones con los números asignados a las observaciones, no debe pasar
por alto la estructura del método de correspondencia de los números a las observaciones sea
isomórfica con respecto a alguna estructura numérica que incluya estas operaciones. La teoría de la
medición está formada por un conjunto de teorías, cada una referida a un nivel diferente de medición.
Las operaciones permitidas con un conjunto de puntajes dado dependen del nivel de medida que se
logre. Cuatro niveles de medida son: nominal, ordinal, de intervalo y de proporción. Cada nivel tiene
estadísticos y pruebas permitidas.
Escala Nominal: La medición se da en un nivel elemental cuando los números o símbolos se usan para la
clasificación de objetos, personas o características. Cuando se usan con el fin de distinguir entre sí
los grupos a que pertenecen varios objetos, los números o símbolos constituyen una escala nominal. Ej:
las tipologías esquizofrénico, paranoico, maníaco-depresivo, psiconeurótico.

Propiedades formales: En estas escalas la operación de escalamiento consiste en partir de una clase
dada y formar un conjunto de subclases que se excluyen mutuamente. La única relación implicada es
de equivalencia, los miembros de cualquier subclase deben ser equivalentes en la propiedad medida. La
relación de equivalencia es reflexiva, simétrica y transitiva.
Operaciones admisibles: Como en toda escala nominal la clasificación se representa por cualquier
conjunto de símbolos, es “única hasta una transformación de uno a uno”. Los signos que designan a los
diferentes grupos pueden intercambiarse sin alterar la información de la escala, por eso las únicas
estadísticas descriptivas posibles son las que no se alteran en este proceso: modo, frecuencia, conteo.
En ciertas condiciones podemos probar las hipótesis usando la prueba no paramétrica X², o la basada
en la fórmula binomial, apropiadas para datos nominales. La medida de asociación mas común es el
coeficiente de contingencia C, una estadística no paramétrica.

Escala ordinal: Puede que los objetos de una categoría de la escala no sean precisamente diferentes a
los de otra categoría, sino que están relacionados entre sí. Relaciones típicas entre clases son las que
comparan altura, dificultad, madurez. Tales relaciones pueden formularse con el signo >, que puede
usarse como mayor que, mas preferible, mas dificil.
En un grupo de clases equivalentes (escala nominal), si la relación > se sostiene entre algunos pares de
clases, tenemos una escala parcialmente ordenada. Si la relación > se sostiene en todos los pares de
clases que modo que surja un rango ordenado completo, tenemos una escala ordinal. Muchos
inventarios de personalidad o habilidades arrojan puntajes que tienen fuerza de rangos
Propiedades Formales: La diferencia entre escala nominal y ordinal es que esta incorpora no solo la
relación de Equivalencia sino también la relación “mayor que”. Es irreflexiva, asimétrica, transitiva.

Operaciones admisibles: Como cualquier cambio que conserve el orden no altera información de una
escala ordinal, esta es “única hasta una transformación monotónica”, o sea, no importa que números
demos a una pareja de clases siempre que el mayor sea dado a los miembros de la clase “mayor”.
La estadística mas apropiada para describir la tendencia central de los puntajes en una escala ordinal
es la mediana porque no es afectada por los cambios de puntaje por encima o por debajo de ella,
siempre y cuando el número de ambos puntajes sea el mismo. Con esta escala, las hipótesis pueden
probarse por numerosas pruebas estadísticas no paramétricas llamadas “estadísticas de orden” o de
rango. Los coeficientes de correlación basados en rangos, de Spearman o Kendall son adecuados.
BIBLIOGRAFÍA: AUTORES CITADOS POR LA DOCENTE DE CÁTEDRA Y CONSIGNADOS EN EL PROGRAMA DE LA MATERIA - LIC. EN PSICOLOGÍA ELISA NOEMÍ AGUILAR
ESTADÍSTICA ELI AGUILAR
15
El único supuesto necesario para algunas pruebas de rango es que los puntajes tengan como base una
distribución continua. Las pruebas paramétricas también funcionan con este supuesto. Una variable
continua puede tomar cualquier valor del intervalo. Una discreta toma un número finito de valores.
Para algunas técnicas no paramétricas que requieren medición ordinal, debe haber un continuo como
base de los puntajes observados. Los puntajes reales pueden caer en categorías discretas. La rudeza
de los instrumentos de medida suele representar pobremente la continuidad base que puede existir.
Si una variable está verdaderamente distribuida en forma continua la probabilidad de que tener
puntajes iguales es cero. Si ocurren, estos reflejan la falta de sensibilidad de los instrumentos de
medida
Las pruebas estadísticas paramétricas, que usan media y desviaciones estandar no deben usarse con
datos de escala ordinal. Las propiedades de esta escala no son isomórficas al sistema aritmético.
Cuando solo se conoce orden de puntajes, las medias y desviaciones estandar dan lugar a errores, en
la medida en que los intervalos sucesivos de la escala no son iguales. Cuando se emplean técnicas
paramétricas de inferencia estadística con esos datos, las decisiones de las hipótesis son dudosas.
Las declaraciones de probabilidad derivadas de la aplicación de pruebas paramétricas a datos
ordinales son erróneas si la estructura del método de recoger datos no es isomórfico respecto a la
aritmética.
Escala de intervalo: Cuando una escala tiene características de una escala ordinal y además conocemos
la distancia entre dos números cualesquiera tenemos una consideración mas fuerte que la ordinal. La
medición se ejecutó en el sentido de una escala de intervalo. Si la asignación de números a varias
clases de objetos es tan precisa que sabemos la magnitud de los intervalos (distancias) entre todos
los objetos de la escala, tenemos una medida de intervalo.

Una escala de intervalo se caracteriza por una unidad de medida común y constante que asigna un
número real a todos los pares de objetos en un conjunto ordenado. En esta clase de medida, la
proporción de dos intervalos es independiente de la unidad de medida y del punto cero. En una escala
de intervalo, el punto cero y la unidad de medida son arbitrarios.
Una suposición necesaria de los científicos de la conducta es que la variable que se está sujetando a
escala se distribuye normalmente. Así quien elabora la escala manipula sus unidades hasta que obtiene
la supuesta distribución normal a partir de puntajes individuales. Otra suposición es que la respuesta
“si” de una persona a un inciso es equivalente a su respuesta afirmativa en cualquier otro inciso.
Propiedades formales: Las operaciones y relaciones en que se origina la estructura de una escala
intervalar son tales que las diferencias en la escala son isomórficas a la estructura de la aritmética.
Los números pueden asociarse con las posiciones de los objetos en una escala intervalar de tal modo
que las operaciones aritméticas puedan realizarse significativamente con las diferencias entre esos
números. Al construir una escala intervalar no solo se especifican equivalencias como en la escala
nominal, y relaciones de mayor a menor como en la ordinal, sino también la proporción de dos
intervalos cualesquiera.

Operaciones admisibles: Cualquier cambio de los números aosciados con los objetos medidos en escala
intervalar debe preservar no solo el orden sino también las diferencias relativas entre ellos, o sea, la
escala intervalar es “única hasta una transformación lineal”. La escala intervalar es laprimera
verdaderamente cuantitativa. Todas las estadísticas paramétricas comunes (media, desviaciones
estandar, correlaciones de Pearson) se aplican a datos en escala intervalar, como las pruebas
estadísticas paramétricas comunes (t, F). Si la medición en el sentido de la escala intervalar se
ejecutó en realidad y si todos los supuestos en elmodelo estadístico se cumplen, el investigador debe
utilizar pruebas estadísticas paramétricas. Los métodos no paramétricos no suelen sacar provecho de
toda la información contendida en los datos de la investigación
BIBLIOGRAFÍA: AUTORES CITADOS POR LA DOCENTE DE CÁTEDRA Y CONSIGNADOS EN EL PROGRAMA DE LA MATERIA - LIC. EN PSICOLOGÍA ELISA NOEMÍ AGUILAR
ESTADÍSTICA ELI AGUILAR
16
Escala de Proporción: Cuando una escala tiene las características de una escala intervalar y además
tiene un punto cero real en su origen se llama escala de proporción. En ella la proporción de un punto a
otro de la escala es independiente de la unidad de medida
Propiedades Formales: Las operaciones y relaciones en una escala de proporción son correspondientes
a una escala isomórfica a la estructura aritmética. Por eso las operaciones aritméticas son permisibles
en valores numéricos asignados a los objetos mismos, como también en los intervalos entre los
números. Las escalas de proporción mas frecuenten en las ciencias físicas se logran cuando cuatro
relaciones son operacionalmente posibles: equivalencia, mayor a menor, proporción conocida de dos
intervalos, proporción conocida de dos valores.

Operaciones admisibles: Los números asociados con valores de una escala de proporción son
verdaderos números con un verdadero cero, solo la unidad de medida es arbitraria. Así, la escala de
proporción es “única hasta la multiplicación por una constante positiva”, o sea, las proporciones entre
dos números cualesquiera son preservadas cuando los valores de la escala son multiplicados por una
constante positiva y la transformación no altera la información de la escala. Cualquier prueba
estadística puede usarse cuando se logró medida de proporción. Además de las pruebas anteriores
apropiadas para escala intervalar pueden usarse estadísticas como la media geométrica y el
coeficiente de variación, que requieren del verdadero punto cero.

Criterios para elegir una prueba:


1) potencia de la prueba 2) aplicabilidad del modelo estadístico en que se basan los datos 3)potencia –
eficiencia 4) nivel de medida logrado en la investigación.

Ventajas de pruebas Estadísticas no paramétricas:

1) Las declaraciones de probabilidad obtenidas son probabilidades exactas (en muestras grandes
son excelentes aproximaciones) independientemente de la forma de la distribución de la
población
2) Si los tamaños de las muestras con pequeños como N=6 no hay alternativa de elección de
prueba no paramétrica a menos que se conozca exactamente la naturaleza de la distribución
3) Hay pruebas estadísticas no paramétricas adecuadas para observaciones en poblaciones
diferentes.

4) Son útiles tanto para datos inherentes a los rangos como datos cuyos puntajes aparentemente
numérico tienen fuerza de rangos, o sea si el investigador solo puede decir de sus sujetos que uno
comparte en mayor o menor grado cierta característica de otro, sin especificar cantidad.
5) Son útiles para datos solo clasificatorios, en escala nominal. No hay técnica paramétrica para
ellos.
6) Son mucho mas fáciles de aplicar que las pruebas paramétricas
Desventajas de pruebas Estadísticas No Paramétricas
1) Si los supuestos del modelo estadístico paramétrico son satisfechos y con la fuerza requerida, las
pruebas no paramétricas disipan los datos. El grado de desperdicio se expresa por la potencia-
eficiencia
2) No existen aún métodos No paramétricos para probar interacciones dentro del modelo del análisis
de varianza a menos que se hagan suposiciones especiales acerca de la aditividad.

BIBLIOGRAFÍA: AUTORES CITADOS POR LA DOCENTE DE CÁTEDRA Y CONSIGNADOS EN EL PROGRAMA DE LA MATERIA - LIC. EN PSICOLOGÍA ELISA NOEMÍ AGUILAR
ESTADÍSTICA ELI AGUILAR
17

Estadística Paramétrica Estadística No Paramétrica

Pruebas estadísticas paramétricas son Pruebas estadísticas no paramétricas son


aquellas cuyo modelo especifica condiciones aquellas cuyo modelo no especifica condiciones a
de los parámetros de la población de la que se parámetros de la población. Algunas suposiciones
obtuvo la muestra. serían: observaciones independientes y variable
de continuidad básica, pero son pocas
La significación de los resultados de estas
suposiciones y mas débiles que las asociadas con
pruebas dependen de estas suposiciones.
pruebas paramétricas. Estas pruebas no
Estas pruebas requieren que los puntajes requieren mediciones tan fuertes, la mayoría se
surjan de una medición con fuerza de escala aplican a datos de escala ordinal y algunas a los
intervalar. de escala nominal

Las pruebas de la estadística paramétrica Las pruebas de la estadística no paramétrica


están en todos los libros están dispersas en mas libros

Trabajan bien con escalas intervalares Trabajan bien con escalas nominales y ordinales.
Se usa en estas escalas sin perder información

Trabajan con variables verdaderamente No necesariamente deben trabajar con variables


cuantificables verdaderamente cuantificables

Son válidas para Distribuciones Normales No necesitan garantizar que la Distribución sea
Normal

Es mas eficaz cuando se cumplen las Aún cuando se satisfagan suposiciones de la


suposiciones y se miden las variables al menos prueba paramétrica, requerimientos de fuerza y
en escala intervalar medición, la potencia–eficiencia indica que al
aumentar el tamaño de la muestra podemos usar
una prueba no paramétrica sin perder potencia
para rechazar Ho.

Si las suposiciones de la población son Si las suposiciones de la población son falsas,


correctas o aproximadas tendrán una muy una prueba no paramétrica puede dar un
buena prueba. Para ser confiables los datos resultado mas preciso, o sea si lo que suponen es
cumplen muchas características. Si los datos errado, igual son confiables pues no necesitan
no son certeros la inferencia es errada todas las condiciones

Se establecen diversas suposiciones respecto Se hacen pocas suposiciones acerca de la


de la naturaleza de la población naturaleza de la distribución por eso son
ampliamente aplicables

Difíciles de entender Fáciles de entender. Exigen conocimientos


matemáticos básicos

Pueden utilizarse fácilmente en experimentos No se pueden aplicar en experimentos complejos


complejos con gran número de variables en los que se maneje gran número de variables

Es significativa con No o con la población Trabaja únicamente con N

Perfecta – Eficiencia, siempre en términos de No son perfectas, sino probables, no tienen 100
precisión. Tienen el 100 % de eficacia certeza % de eficacia sino de probabilidad.

BIBLIOGRAFÍA: AUTORES CITADOS POR LA DOCENTE DE CÁTEDRA Y CONSIGNADOS EN EL PROGRAMA DE LA MATERIA - LIC. EN PSICOLOGÍA ELISA NOEMÍ AGUILAR
ESTADÍSTICA ELI AGUILAR
18

CAPITULO IV – EL CASO DE UNA MUESTRA

Hay pruebas estadísticas no paramétricas que pueden usarse para probar hipótesis con una muestra.
Estas indican si la muestra proviene de una población especifica. La prueba de una muestra es del tipo
de la bondad del ajuste. En una muestra tomada al azar probamos la hipótesis de que su extracción viene
de una población con una cierta distribución. La técnica paramétrica consiste en aplicar una prueba t a la
diferencia entre media observada (muestra) y esperada (población). La prueba t supone que las
observaciones muestrales son de una población distribuida normalmente y en escala intervalar.
Prueba Binomial
Hay poblaciones que se conciben formadas solo por dos clases, así las observaciones caerán en una u
otra clasificación. En cualquier población de dos casos, al saber que la proporción de casos en una
clase es P, la proporción en la otra clase será Q = 1-P. La técnica es del tipo de la bondad del ajuste

Función: La distribución binomial es la distribución muestral de las proporciones observadas en


muestras tomadas al azar de una población de dos clases. Da los diferentes valores que pueden
presentarse bajo Ho. Esta prueba es de tipo de la bondad del ajuste; dice que tan razonable es que
las frecuencias observadas en la muestra se hayan sacado de una población con un valor especifico de
P
p(x)= N px Qn-x N N!
Método: La probabilidad de obtener x x x x! ( N – x )!
objetos en una categoría y N-x en la otra 4.1
es:
P es la proporción de casos esperados en una categoría y Q (1-P) proporción de casos esperados en la
otra
x 4.2
Pero en una investigación no nos ocuparnos de la probabilidad de p(x)= ∑ N pt Qn-t
obtener exactamente los valores que fueron observados, en t=0
i
realidad preguntamos ¿qué probabilidad hay de obtener los
valores observados o aún mas extremos?. En este caso la distribución muestral binomial es:
Muestra pequeñas: en el caso de una muestra, cuando se usa para una clase con dos categorías, una
situación común ocurre si P = ½. La tabla D que contiene las probabilidades de una cola asociadas con la
ocurrencia de valores tan extremos como x conforme a Ho de que P=Q=½.. La tabla D es útil si N es <=
25. La tabla D contiene las probabilidades asociadas con la ocurrencia de valores tan pequeños como x
para diferentes N (de 5 a 25). Las probabilidades (p) de la tabla D son de una cola. Se usa una prueba
de una cola cuando hemos predicho cuál de las categorías contendrá el menor número de casos. Si solo
se predice la diferencia, se usa una prueba de dos colas y se duplica la p D.
Muestras grandes: La tabla D no puede usarse con N > 25, pero a medida que N aumenta, la
distribución binomial tiende a la distribución normal. Esta tendencia es rápida con P cercano a ½ y
lenta con P próximo a 0o1. A mayor disparidad entre P y Q, mayor debe ser N para que la
aproximación pueda usarse para una prueba estadística si N>25. Cuando P se acerca a 0o1, el sentido
común indica que NPQ debe ser, al menos = 9 para ser aplicable a la prueba estadística basada en la
aproximación normal. Dentro de estas limitaciones la distribución
muestral de x es aproximadamente normal, con media = NP y z = x – NP / √NPQ 4.3
desviación estandar = √NPQ.
z = (x ± 0.5) - NP / √NPQ 4.4
Resumen del procedimiento:
1- Se determina N, numero total de casos observados.

2- Se determinan las frecuencias en cada categoría.

BIBLIOGRAFÍA: AUTORES CITADOS POR LA DOCENTE DE CÁTEDRA Y CONSIGNADOS EN EL PROGRAMA DE LA MATERIA - LIC. EN PSICOLOGÍA ELISA NOEMÍ AGUILAR
ESTADÍSTICA ELI AGUILAR
19
3- Se elige el método para hallar la probabilidad de ocurrencia según Ho de valores observados
a) N = o < 25 y P=Q=½ tabla D

b) P ¹ Q fórmula 4.2. Tabla T es útil aquí: da coeficientes binomiales ( N x) para N < = 20


c) N > 25 y cercana a ½, Ho se prueba usando la fórmula 4.4. Tabla A
Si la p asociada con el valor observado de x , o de un valor mas externo, es = o < α se rechaza Ho.
Potencia-Eficiencia: Como no hay técnica paramétrica aplicable a datos en escala nominal, no se deduce
potencia-eficiencia de la binomial con datos nominales. Al dicotomizar un continuo, si se aplica la binomial
puede actuar disipadoramente y la binomial tiene potencia eficiencia del 95 % con N de 6
La prueba X² de una muestra

Función: La X² es adecuada cuando interesa el número de sujetos, objetos o respuestas que se


clasifican en diferentes categorías. Las categorías pueden ser dos o mas; la técnica es del tipo de la
bondad del ajuste, que puede usarse para probar la existencia de una diferencia significativa entre un
número observado de objetos o respuestas de cada categoría y un número esperado, basado en la Ho
Método: El fin es comparar un grupo de frecuencias observado con uno esperado; a partir de la
Ho podemos deducir cuales son las frecuencias esperadas. La técnica X² prueba si las
frecuencias observadas están suficientemente próximas a las esperadas que podrían
ocurrir conforme a Ho. La hipótesis de nulidad puede probarse mediante la formula:

Donde Oi= número observado de casos clasificados en la categoría i 4.5


k
. Ei= número esperado de casos en la categoría de i conforme a Ho. X² = ∑ ( Oi – Ei ) ²
∑ señala la necesidad de sumar en todas las categoría (k). i=1
Ei
La formula nos indica sumar en las k categorías los cuadros de las
diferencias de cada frecuencia observada y cada frecuencia esperada, dividida por la frecuencia
esperada correspondiente.

Si el acuerdo entre frecuencias observadas y esperadas es grande la diferencia (Oi-Ei) será pequeña,
entonces X² será también pequeña. Si la divergencia es grande X2 con la fórmula 4.5 también será
grande. Entonces, podemos decir que para valores mayores de X², aumentarán las probabilidades de
que las frecuencias observadas no provengan de la población en la que se basó la Ho.
La distribución muestral de X² conforme a Ho calculada con la formula sigue la distribución de X²
con gl = k-1. En la parte superior de cada columna de la tabla C encontramos las probabilidades de
ocurrencia asociadas (de 2 colas) conforme a Ho. Hay una valor diferente de X² para cada gl. Hay
diferentes distribuciones muestrales para X², una para cada valor de gl. El tamaño de gl refleja el
número de observaciones susceptible de variar después de ciertas restricciones en los datos.
En general, en casos de una muestra, cuando Ho especifica completamente las Ei, gl = k-1, donde k
representa el numero de categorías de la clasificación.
Para usar X² en la prueba de una hipótesis en casos de una muestra, se pone cada observación en cada
una del numero k de celdillas. El número total de tales observaciones será el numero de casos en su
muestra N. Esto es, una observación debe ser independiente de cualquier otra. Así se evitan
observaciones en la misma persona. Para cada una de las k celdillas, la frecuencia esperada también
debe ser registrada. Si Ho supone que la proporción de casos en cada categoría es la misma entonces
Ei= N/k. Conociendo los diferentes valores de Ei y Oi, se puede computar el valor de X² mediante la
formula 4.5. La significación de este valor obtenido de X² puede determinarse recurriendo a la tabla
C . Si la probabilidad asociada con la ocurrencia, conforme a Ho de la X² obtenida para gl = k-1 es = o <
α determinado previamente, Ho puede ser rechazada. Si no es así, Ho será aceptada.
BIBLIOGRAFÍA: AUTORES CITADOS POR LA DOCENTE DE CÁTEDRA Y CONSIGNADOS EN EL PROGRAMA DE LA MATERIA - LIC. EN PSICOLOGÍA ELISA NOEMÍ AGUILAR
ESTADÍSTICA ELI AGUILAR
20
Resumen del procedimiento:
1- Se clasifican las frecuencias observadas en un numero k de categorías. La suma de las
frecuencias debe ser N, es decir, el numero de observaciones independientes.
2- A partir de la Ho se determina las frecuencia esperada para cada una de las k celdillas.
3- Con la formula 4.5 se calcula el valor de X².

4- Se determina el valor de gl = k-1.

5- Con la tabla C, se determina la probabilidad asociada con la ocurrencia conforme a Ho de un


valor tan grande como valor observado de X² para el valor observado de gl. Si p es igual o
menor que α, se rechaza la Ho.

Potencia: Como esta prueba suele usarse cuando no se dispone de otra alternativa, usualmente no se
puede calcular su potencia exacta. Si se usa medición nominal o los datos están conformados por
categorías inherentemente discretas, la noción de potencia-eficiencia de X² no tiene importancia,
entonces no hay prueba paramétrica adecuada. Si los datos permiten que pueda disponerse de una
prueba paramétrica, la X² puede disipar la información. Cuando gl > 1 las pruebas X² son insensibles a
los efectos de orden, así cuando una hipótesis tiene en cuenta el orden X² puede no ser la mejor.

CAPITULO V - EL CASO DE DOS MUESTRAS RELACIONADAS

Las pruebas estadísticas de dos muestras se usan cuando el investigador desea establecer la
diferencia entre dos tratamientos o si un tratamiento es “mejor” q otro. El “tratamiento” puede ser
cualquiera de una multiforme variedad de condiciones. En cada caso, el grupo que ha sufrido el
tratamiento es comparado con el que no lo ha experimentado o que ha sufrido un tratamiento
diferente.

En comparaciones de dos grupos algunas veces se observan diferencias significativas que no son
resultado del tratamiento. Una manera de vencer la dificultad impuesta por diferencias extrañas
entre los grupos es usar dos muestras relacionadas en la investigación. Esto es, uno puede “igualar” o
relacionar de otra manera las dos muestras estudiadas, cosa que puede lograrse cuando cada sujeto
es su propio control o con parejas de sujetos en las que se asignan los miembros de cada pareja a las
dos condiciones.
Siempre que sea factible, el método de usar a cada sujeto como su propio control (compensando en el
orden en el que le son asignados los tratamientos) es preferible al método de pares, debido a que
nuestra capacidad para formar parejas se ve limitada por la ignorancia de las variables pertinentes
que determinan su conducta. El problema desaparece cuando cada sujeto es usado como su propio
control; no es posible un par mas preciso que el logrado por identidad.

Las pruebas estadísticas no paramétricas para dos muestras relacionadas tienen la ventaja adicional
que no requieren una misma población de la que provengan todas las parejas. Se presentaran 5
pruebas, las cuales ayudan a seleccionar la técnica mas adecuada p una investigación:

LA PRUEBA Mc NEMAR P LA SIGNIFICACIÓN D LOS CAMBIOS

Función: esta prueba es mas apropiada para los diseños de “antes y después” en los que cada persona
se usa como su propio control y en la medida tiene la fuerza de una escala nominal y ordinal.
Fundamento y método: para probar la significación de cualquier cambio observado con este método,
se elaboró una tabla de cuatro entradas de frecuencias que representa al primero y al segundo
conjunto de respuestas de los mismos individuos. Los rasgos generales de la tabla (se ilustran en la

BIBLIOGRAFÍA: AUTORES CITADOS POR LA DOCENTE DE CÁTEDRA Y CONSIGNADOS EN EL PROGRAMA DE LA MATERIA - LIC. EN PSICOLOGÍA ELISA NOEMÍ AGUILAR
ESTADÍSTICA ELI AGUILAR
21
tabla 5.1-pag. 86 “Ver gráfico de la tabla, de antes y después), en la que se usan + y – porque
simbolizar respuestas diferentes. Nótese q los casos q muestran cambios entre la primera y segunda
respuesta aparecen en las celdillas A y D. Un individuo es clasificado en la celdilla A si cambio de + a -.
Es clasificado en la celdilla D si cambio de – a +. Si no es observado ningún cambio, va a la celdilla B
(rtas. d + antes y después) o a la celdilla C (rtas. D – antes y después).

Puesto q A + D representan el numero total de personas que cambiaron, se espera que ½ (A + D) sea la
frecuencia esperada conforme a Ho en ambas celdillas A y D.
Resumen del procedimiento: estos son los pasos p calcular la prueba d Mc Nemar:

1. Se ordena las frecuencias observadas en una tabla de cuatro entradas de la forma d la tabla
5.1.

2. Se determinan las frecuencias esperadas en las celdillas A y D. Si las frecuencias esperadas


son menores que 5, se usa la prueba binomial en lugar de la de Mc Nemar.
3. Si las frecuencias esperadas son 5 o mas, se calcula el valor x².
4. Se determina la probabilidad conforme a Ho asociada con un valor tan grande como el valor
observado d x° en a tabla C. si se requiere una prueba unilateral, se divide en dos la
probabilidad q resulta en la tabla. Si la probabilidad de la tabla C por el valor observado de x²
con df = 1 es igual o menor que µ, se rechaza Ho y se acepta de H1.

LA PRUEBA DE LOS SIGNOS


Función: la prueba de los signos debe su nombre al uso de los signos mas y menos de medición en lugar
de cantidades. Es particularmente útil cuando la medición cuantitativa es imposible o no es practica,
pudiendo aun haber cierto orden entre los miembros de cada pareja.
La prueba de los signos es aplicable al caso de dos muestras relacionadas cuando el experimentador
desea establecer que ambas condiciones son diferentes. El único supuesto adyacente d la prueba es la
continuidad de la variable considerada. Las diferentes parejas pueden provenir de poblaciones
distintas con respecto a edad, sexo, inteligencia, etc.; el único requisito es q dentro d cada pareja el
experimento haya logrado igualar las variables extrañas pertinentes, como se indico antes, cada
sujeto puede ser su propio control.
Método: al aplicar la prueba d los signos nos orientamos en la dirección d las diferencias entre cada
Xai y Xbi, advirtiendo el signo mas o menos de la diferencia. Conforme a Ho, esperamos que el numero
de parejas por las que Xa>Xb sea igual al numero de parejas por las que Xa<Xb. Esto es, si la hipótesis
d nulidad fuera verdadera, esperaríamos q cerca d la mitad d las diferencias fueran negativas y la
otra mitad positivas. Ho es rechazada si ocurren muy pocas diferencias de un signo.
La prueba de los signos puede ser de una o de dos colas. En la d una cola, se predice q signo ocurrirá
mas frecuentemente. En una prueba de dos colas, solo se predice q las frecuencias con q ocurrirán los
signos serán significativamente diferentes. En esta prueba hay q duplicar los valores de probabilidad
en la tabla D.

Ligas: en la prueba d signos, se dice q una “liga” ocurre cuando no es posible distinguir diferencias en
la pareja igualada en la variable bajo estudio o cuando los dos puntajes obtenidos por cualquier pareja
son iguales.

Todos los casos ligados fueron desechados del análisis de prueba de los signos, y en consecuencia el N
se redujo. Por tanto, N es el numero de parejas igualadas cuyo puntaje de diferencia tiene un signo;
xej. 14 de 17 parejas tuvieron puntajes d diferencia con signo, por lo que N = 14.

BIBLIOGRAFÍA: AUTORES CITADOS POR LA DOCENTE DE CÁTEDRA Y CONSIGNADOS EN EL PROGRAMA DE LA MATERIA - LIC. EN PSICOLOGÍA ELISA NOEMÍ AGUILAR
ESTADÍSTICA ELI AGUILAR
22
Muestras grandes: si N es mayor que 25, puede emplearse la aproximación normal a la distribución
binomial.

Resumen del procedimiento: estos son los pasos de la prueba de los signos:
1. Se determina el signo de la diferencia entre los dos miembros d cada pareja.
2. Se determina el valor d N, numero de parejas, cuya diferencias exhiben un signo.

3. El método para determinar la probabilidad asociada con la ocurrencia conforme a Ho de un


valor tan extremo como el valor observado de x depende del tamaño d N. Si la probabilidad
producida es igual o menor que µ, se rechaza la Ho.

LA PRUEBA D RANGOS SEÑALADOS Y PARES IGUALADOS DE WILCOXON

Función: si se considera la magnitud relativa así como la dirección de las diferencias, puede hacerse
una prueba mas poderosa. La de rangos, señalados y pares igualados de Wilcoxon: da mayor eso al par
q muestra una diferencia grande entre las dos condiciones q el par q exhibe una diferencia pequeña.
Esta prueba es la de mayo utilidad p el científico conductual.
Fundamento y método: sea di el puntaje de diferencia p cualquier par igualado, representando la
diferencia entre los puntajes del par bajo los dos tratamientos. Cada par tiene una di. Para usar la
prueba de Wilcoxon, se clasifican todas las di, sin tener en cuenta el signo así: del rango de 1 a la mas
pequeña di, el rango de 2 a la siguiente menor, etc. cuando se clasifican puntajes despreciando el
signo, a una di de –1 se le da un rango menor que a una di de –2 ó +2.
Enseguida se añade a cada rango el signo de la diferencia, indicando que rangos procedieron de di
negativas y de di positivas.

Ahora bien, si los tratamientos d A y B son equivalentes, esto es, si Ho es verdadera, esperaríamos
encontrar algunas de las di mayores favoreciendo el tratamiento de A y otras favoreciendo el de B.
Es decir, algunos de los rangos mayores procederían de las di positivas mientras otros procederían de
las di negativas. En otras palabras, rechazamos Ho si tanto la suma de los rangos de las di negativas
como la suma de los rangos para las di positivas es demasiado pequeña.
Muestras pequeñas: sea T la suma mas pequeña de los rangos señalados. Esto es, T es la suma de los
rangos positivos cuando es menor que la suma de los rangos negativos, o viceversa. En la tabla G del
apéndice hay diferentes valores de T y sus niveles asociados de significación. Es decir, si una T
observada es igual o menor q el valor dado en la tabla G en un nivel particular de significación para el
valor observado de N, la hipótesis de nulidad puede rechazarse entonces a ese nivel de significación.

La tabla G se adapta, tanto a pruebas de una cola como de dos colas.


Resumen del procedimiento: estos son los pasos de la prueba de rangos señalados y pares igualados
de Wlicoxon:
1. Para cada par igualado, se determina la diferencia del signo (di) entre los dos puntajes.
2. Se ordenan estas di sin respetar el signo. Con las d ligadas, se asigna el promedio de los
rangos ligados.

3. Se añade a cada rango el signo (+ ó -) de la d q representa.

4. Se determina T, la mas pequeña suma de los rangos igualados.


5. Se determina N, el numero total de d con un signo.

6. El procedimiento p determinar la significación del valor observado d T depende del lado de


N: si N es 25 ó menor, si N es mayor q 25.

BIBLIOGRAFÍA: AUTORES CITADOS POR LA DOCENTE DE CÁTEDRA Y CONSIGNADOS EN EL PROGRAMA DE LA MATERIA - LIC. EN PSICOLOGÍA ELISA NOEMÍ AGUILAR
ESTADÍSTICA ELI AGUILAR
23
LA PRUEBA DE WALSH
Función: si el investigador esta en condiciones de suponer que los puntajes en diferencia observados
en dos muestras relacionados se tomaron de una población simétrica, puede usar la poderosa prueba
desarrollada d Walsh. La prueba supone poblaciones simétricas, d manera q la media representa
exactamente la tendencia central, y es igual a la mediana. La prueba d Walsh requiere mediciones por
lo menos de escala de intervalo.

Método: para la prueba de Walsh, se obtienen puntajes de diferencia (di) para cada uno d los N
pares, q se colocan en orden a su tamaño, teniendo en cuenta el signo d cada d. Sea d1 el puntaje de
diferencia mas bajo (puede ser una d negativa), d2 la diferencia siguiente mas baja, etc. Así,
d1£d2£d3£d4£...£dn.
La hipótesis de nulidad supone q los valores de di fueron tomados de una población de mediana cero (o
de un grupo de poblaciones de mediana común de cero). En una distribución simétrica, la media y la
mediana coinciden. La prueba d Wlash supone q las di provienen de poblaciones con distribuciones
simétricas. Por consiguiente, Ho afirma q el promedio de los puntajes de diferencia (m0) es cero. Para
una prueba de dos colas, Hi supone q m2 ¹ 0. Para una prueba de una cola, Hi puede ser bien m2>0, o
bien, m2<0.

La tabla H del apéndice se usa para determinar la significación se diferentes resultados conforme a la
prueba d Wlash. Para usar esta tabla, se necesita conocer el valor observado en N (el numero d
parejas), la naturaleza de Hi y los valores numéricos de cada di.

La tabla H contiene los valores significativos para pruebas tanto de una como de dos colas.
Resumen del procedimiento: estos son los pasos de la prueba d Wlash:
1. Se determina el puntaje de diferencia con signo (di) para cada par.
2. Se determina N, el numero de pares igual a dos.
3. Se colocan las di, en tamaños cada vez mayores, de di a dn, teniendo en cuenta el signo.
Así, di es el valor negativo mayor de d y dn es el valor positivo mayor de d.
4. La tabla H sirve para determinar si Ho se rechaza y se acepta Hi, con valores observados
de di, d2,d3...dn.

CAPITULO VI - EL CASO DE DOS MUESTRAS INDEPENDIENTES

Al estudiar las diferencias entre dos grupos, podemos usar grupos relacionados o independientes.
Aunque tiene meritos usar dos muestras relacionadas en un diseño de investigación, suele
resultar poco practico. Frecuentemente, la naturaleza de la variable dependiente impide usar a
los sujetos como sus propios controles. Cuando el uso de dos muestras relacionadas no es practico
ni adecuado, pueden usarse dos muestras independientes. En este diseño, las dos muestras
pueden obtenerse con la ayuda de dos métodos: a) tomadas al azar de dos poblaciones o b)
asignados al azar ambos tratamientos a miembros de alguna muestra de orígenes arbitrarios. En
cualquier caso no es necesario que las muestras sean del mismo tamaño.
Las técnicas paramétricas usuales para analizar datos de dos muestras independientes consiste en
aplicar una prueba t a alas medidas de los dos grupos. La prueba t supone que los puntajes (que se
suman al calcular las medidas) son observaciones independientes de poblaciones distribuidas
normalmente con varianzas iguales, y requiere que las observaciones se midan por lo menos en una
escala de intervalo. Para una investigación dada, la prueba t puede ser aplicable debido a varias
razones. El investigador puede encontrar que a) las suposiciones de la prueba t son poco adecuadas
para sus datos; b) prefiere no hacer suposiciones y así dar a sus conclusiones mayor generalidad o; c)
sus puntajes pueden no ser verdaderamente numéricos y por tanto no satisfacer la medida de la
prueba t.
BIBLIOGRAFÍA: AUTORES CITADOS POR LA DOCENTE DE CÁTEDRA Y CONSIGNADOS EN EL PROGRAMA DE LA MATERIA - LIC. EN PSICOLOGÍA ELISA NOEMÍ AGUILAR
ESTADÍSTICA ELI AGUILAR
24
LA PRUEBA DE LA PROBABILIDAD EXACTA DE FISHER
FUNCION: Esta es una técnica no parametrica sumamente útil para analizar datos discretos
(nominales u ordinales) cuando las dos muestras independientes son pequeñas. Se usa cuando los
puntajes de dos muestras recogidas independientemente al azar perteneces respectivamente a clases
mutuamente excluyentes. En otras palabras, cada sujeto en ambos grupos obtiene uno de los dos
puntajes posibles. Los puntajes se representan mediante frecuencias en una tabla de contingencia de
2X2, como la tabla 6.1. Los grupos I y II pueden ser dos grupos independientes cualquiera, tales por
ejemplo pueden ser como experimentales y control, hombres y mujeres, empleados y no empleados,
etc. También en cuanto a las dos clasificaciones pude ser cualquiera ejemplo aprobado- desaprobado,
de acuerdo y en desacuerdo, etc. La prueba determina si los grupos difieren en la proporción
correspondiente a las clasificaciones.

Ejemplo de la tabla de contingencia 2X2: TOTAL


- +

Grupo I A B A+B

Grupo II C D C+D

TOTAL A+C B+D N

METODO: La probabilidad exacta de observar un conjunto particular de frecuencias en una tabla de


2X2, cuando los totales marginales se consideran fijos, esta dada por la distribución hipergeométrica.
Esto es, la probabilidad exacta de la ocurrencia observada se encuentra tomando la proporción del
producto de los factoriales de los cuatro totales marginales y el producto de los factoriales de las
frecuencias de las celdillas, multiplicando por el factorial N.
Si para el investigador son suficientes los niveles de significación en lugar de valores exactos de p
(probabilidad), puede usar la tabla I del apéndice. Se elimina la necesidad de realizar cálculos
tediosos. Con ella se puede determinar directamente la significación de un conjunto observado de
valores en una tabla de contingencia de 2X2. La tabla I es aplicable a los datos donde N toma un valor
de 30 o menor, y donde ninguno de los totales del margen derechos sobrepasa 15. Es decir ni A+B, ni,
C+D pueden ser mayores que 15.

Debido a su gran tamaño, la tabla I es un poco más difícil de usar que la mayoría de las tablas de
valores de significación. Por lo tanto, se ha incluido direcciones detallada para su uso.
1) Se determinan los valores de A+B+C+D a partir de los datos.
2) Se encuentra el valor observado de A+B en la tabla I bajo el encabezado “totales en el
margen derecho”

3) En la misma sección de la tabla, se localiza el valor observado de C+D bajo el mismo


encabezado.

4) Para el valor observado de C+D, hay en la tabla varios valores posibles de Bª. Se encuentra el
valor observado de B entre estas posibilidades.

5) Se observa a continuación el valor de D. Si es igual o menor que el valor dado en la tabla de


acuerdo con su nivel de significación, los datos observados son significativos en se nivel.

BIBLIOGRAFÍA: AUTORES CITADOS POR LA DOCENTE DE CÁTEDRA Y CONSIGNADOS EN EL PROGRAMA DE LA MATERIA - LIC. EN PSICOLOGÍA ELISA NOEMÍ AGUILAR
ESTADÍSTICA ELI AGUILAR
25
Deberá notarse que los valores de la tabla I son aproximados. Y también que los niveles de
significación de esta tabla son para regiones de rechazo de 1 cola. Si se necesita una región de
rechazo de 2 colas hay que duplicar el nivel de significación dado en la tabla I.
RESUMEN DEL PROCEDIMIENTO: Estos son los pasos para usar la prueba de Fisher:
1) Se distribuyen las frecuencias observadas en una tabla de 2X2.

2) Se determinan los totales marginales. Cada conjunto de totales marginales se suma a N, el


número de casos independientes observados.
3) La elección del método para decidir si se rechaza o no la Ho depende de que se requiera el
cálculo de las probabilidades exactas.

a) Para una prueba de significación, hay que consultar la tabla I


b) Para una probabilidad exacta, se requiere un uso recurrente de formula (6.1)
En cualquier caso, el valor obtenido será para una prueba de una cola. Para una prueba de dos
colas, el nivel de significación que aparece en la tabla I o la p obtenida deberá duplicarse.
4) Si el nivel de significación que aparece en la tabla I o la p obtenida es igual o menor que a, se
rechaza Ho.
LA PRUEBA Xª PARA DOS MUETRAS INDEPENDIENTES
FUNCION: Cuando los datos de investigación consisten en frecuencias de categorías, puede usarse la
prueba Xª para determinar la significación de las diferencias entre dos grupos independientes. La
medición implicada puede ser tan vaga como una escala nominal.

La hipótesis que usualmente se pone a prueba supone, que los dos grupos difieren con respecto a
alguna característica y por lo tanto, con respecto a la frecuencia relativa con que los miembros
del grupo son encontrados en diferentes categorías. Para probar esta hipótesis, contamos el
número de casos de cada grupo en cada categoría de un grupo con la del otro grupo. Por ejemplo
podríamos probar si dos grupos políticos difieren en su acuerdo o desacuerdo con alguna opinión.
METODO: La hipótesis de nulidad puede probarse por medio de:
Xª = SS (O - E)ª (6.3)

E
Donde O es el numero observado de casos clasificados y E es el numero de casos esperados conforme
con la Ho. Para encontrar la frecuencia esperada par cada casillero o celdilla se multiplican los dos
totales marginales comunes por una celdilla particular y se divide este producto por el número total
de casos N.

Los valores sacados después de la formula son distribuidos aproximadamente con un gl= (k-1). (r-1)
donde k quiere decir numero de categorías y r quiere decir número de columnas.

Ahora bien, si las frecuencias observadas están estrechamente de acuerdo con las frecuencias
esperadas, las diferencias (O-E) serán por supuesto, pequeñas y consecuentemente el valor de Xª
será pequeño. Con un valor Xª no podemos rechazar la hipótesis de nulidad (o nula), que supone
independientes entre si a los dos conjuntos de características. Sin embargo, si hay una o varias
diferencias grandes, el valor de Xª también será grande. Cuanto mayor es Xª tanto mas probable es
que los dos grupos difieran con respecto a las clasificaciones.

Las probabilidades asociadas con diferentes valores de chi cuadrada se encuentran en la tabla C del
apéndice.

BIBLIOGRAFÍA: AUTORES CITADOS POR LA DOCENTE DE CÁTEDRA Y CONSIGNADOS EN EL PROGRAMA DE LA MATERIA - LIC. EN PSICOLOGÍA ELISA NOEMÍ AGUILAR
ESTADÍSTICA ELI AGUILAR
26
TABLAS DE CONTENGENCIA DE 2X2: Tal vez el uso mas comun de la prueba de Xª se refiere a la
posibilidad de que ocurra conforme a Ho un colapso observado de frecuencias en una tabla de
contingencia de 2X2. Cuando aplicamos a la prueba Xº a los datos donde tanto r como k son iguales a
2, deberá usarse la formula:
N
Xª = N (/ AD – BC/ - 2 ) (6.4) gl= 1

(A+B). (C+D). (A+C). (B+D)

RESUMEN DE PROCEDIMIENTO: Pasos par usar la prueba de Xª para dos muestras independientes:
1) Se calculan las frecuencias observadas en una tabla de contingencia k x r, usando las columnas
de k para los grupos y las filas de r para las condiciones
2) Se determina la frecuencia esperada para cada una de las celdillas para obtener el producto
de los totales marginales. Comunes a ella y dividirlo por N( N es la suma de cada grupo de
totales marginales. Representa el numero total de observaciones independientes. Las N
infladas invalidan la prueba). El paso de 2 es innecesario cuando los datos están en una tabla
de 2x2.
3) Para una tabla de 2x2, se calcula Xª con una formula (6.4) cuando es mayor que 2, se calcula
Xª con una formula de (6.3)

4) Se determina la significación de la Xª observada consultando la tabla C. Para una prueba de


una cola, se divide por dos el nivel de significación señalado. Si la probabilidad dad por la tabla
C es igual o menor que a se rechaza Ho y se acepta H1.

Cuando se usa la prueba Xª


El caso 2X2. Si las frecuencias están en una tabla de contingencia 2X2, la decisión concerniente al
uso de Xª debe guiarse por estas consideraciones:
1) Cuando N> 40, se usa Xª corregida por la continuidad, es decir con la formula 86.4)
2) Cuando N esta entre 20 y 40, la prueba Xª (6.4), puede usarse en el caso de que todas las
frecuencias esperadas sean de 5 o mas. Si la frecuencia esperada más pequeña es menor
que 5 se usa la prueba de Fisher.
3) Cuando N<20, se usa la prueba de Fisher.

Tablas de contingencia con gl mayor que 1: Cuando k es mayor que 2 (y así gl > 1), puede usarse la
prueba Xª si menos del 20 por ciento de las celdillas tiene una frecuencia esperada menor que 5 y si
no hay ninguna celdilla con una frecuencia espera menor que 1. Si estos requisitos no son reunidos por
los datos en la forma en que se obtuvieron originalmente, el investigador debe combinar las categorías
adyacentes para aumentar la frecuencia esperada en las diferentes celdillas.
LA PRUEBA DE LA MEDIANA
FUNCION: La prueba de la mediana es un procedimiento para probar si dos grupos independientes
difieren en sus tendencias centrales. Más exactamente, la prueba de la mediana dará información
acerca de la probabilidad de que dos grupos independientes (no necesariamente del mismo tamaño) se
hayan tomado de poblaciones con la misma mediana. La hipótesis de nulidad supone que proviene de
poblaciones con la misma mediana; la hipótesis alterna puede ser que la mediana de una población es
diferente de la de la otra (prueba de dos colas) o que la mediana de una población es más alta que la
de la otra (prueba de una cola). La prueba puede usarse siempre que los puntajes de los dos grupos
por lo menos en una escala ordinal de medición.

BIBLIOGRAFÍA: AUTORES CITADOS POR LA DOCENTE DE CÁTEDRA Y CONSIGNADOS EN EL PROGRAMA DE LA MATERIA - LIC. EN PSICOLOGÍA ELISA NOEMÍ AGUILAR
ESTADÍSTICA ELI AGUILAR
27
FUNDAMENTO Y METODO: Al aplicar la prueba de la mediana, se empieza por determinar el puntaje
de la mediana para el grupo combinado (es decir, la mediana para todos los puntajes en ambas
muestras). Enseguida se dicotomizan os conjuntos de puntajes de la mediana combinada y se
distribuyen los datos en una tabla de 2X2, como la tabla a continuación (6.10)
TOTAL
Grupo I Grupo II

Num. de puntaj. Por encima de la mediana combinada A B A+B

Num. de puntaj. por debajo de la mediana combinada C D C+D


(6.10)

TOTAL A+C B+D N=n1 +n2


Ahora bien, si en los grupos I y II tenemos muestras procedentes de población con la misma mediana,
cerca de la mitad d los puntajes e cada grupo deberá estar por encima de la mediana combinada y
cerca de la otra mitad por debajo. Es decir, esperaremos que las frecuencias A y C sean
aproximadamente iguales, y las frecuencias B y D también lo sean.
Puede demostrarse que si A es el numero de casos en el grupo I por encima de la mediana combinada y
si B es el numero de casos en el grupo II en la misma situación, la distribución muestral de A y B bajo
la hipótesis nula (Ho es A = 1 n1 y B = 1 n2) es la distribución hipergeometrica.
2 2
P (A,B)= (A+C) . (B+D)
A B
(n1 +n2)
A+B (6.5)

Si el numero total de casos en ambos grupos (n1+n2) es pequeño puede usarse la prueba de Fisher
para probar Ho. Si el numero total de casos es suficientemente grande puede usarse X² con gl= 1.
Cuando se analizan datos divididos en la mediana, hay que guiarse por estas consideraciones al escoger
entre la prueba de Fisher y la prueba Xª.
1) Cuando n1+ n2 > 40 se usa Xª corregida por continuidad es decir con la formula (6.4).
2) Cuando n1+ n2 esta entre 20 y 40 y ninguna celdilla tiene una frecuencia esperada menor a 5
se usa Xª corregida por continuidad por (6.4). Si la mas pequeña frecuencia esperada es
menor que 5, se usa la prueba de Fisher.
3) Cuando n1+ n2 < 20 se usa Fisher.
Puede surgir una dificultad al calcular la prueba de la mediana: puede que haya varios puntajes
exactamente, en la mediana combinada. Si sucede, el investigador tiene dos alternativas: a) si n1+ n2
es grande y si solamente unos pocos casos caen en la mediana combinada esos casos pueden retirarse
del análisis o b) los grupos pueden dividirse en puntajes que excedan o no excedan la mediana.

RESUMEN DEL PROCEDIMIENTO: Son los pasos para usar la mediana


1) Se determina la mediana combinada de los puntajes n1 + n2.
2) Se dividen en la mediana combinada los puntajes de cada grupo. Se registran las frecuencias
resultantes en una tabla como la 6.10. Si son muchos los puntajes que quedan en la mediana
combinada, se dividen los puntajes en categorías: excedentes y no excedentes de la mediana.
3) Se encuentra la probabilidad de los valores observados por la prueba de Fisher o la Xª,
escogiendo entre ellas de acuerdo con los criterios ya establecidos.
4) Si la probabilidad resultante de la prueba es igual o menor que a, se rechaza Ho.
BIBLIOGRAFÍA: AUTORES CITADOS POR LA DOCENTE DE CÁTEDRA Y CONSIGNADOS EN EL PROGRAMA DE LA MATERIA - LIC. EN PSICOLOGÍA ELISA NOEMÍ AGUILAR
ESTADÍSTICA ELI AGUILAR
28
ELECCIÓN DE LA PRUEBA ESTADÍSTICA ADECUADA

Una prueba estadística es buena si es pequeña la probabilidad de rechazar Ho siendo verdadera y


grande la probabilidad de rechazar Ho siendo falsa. Esto determina la potencia de una prueba.
Existen otras consideraciones además de la potencia que determinan la elección de la prueba
estadística. En la elección debemos considerar la manera en que la muestra de puntajes fue
obtenida, la naturaleza de la población de la que se sacó la muestra y la clase de medición o escala
que se empleó en las definiciones operacionales de las variables usadas, es decir, en los puntajes
Las pruebas más poderosas son las apoyadas por suposiciones mas fuertes y amplias. Las pruebas
paramétricas como la prueba t o F se basan en una variedad de fuertes suposiciones. Cuando los
datos de la investigación pueden ser analizados adecuadamente por una prueba paramétrica, ese
será el medio mas poderoso para rechazar una Ho Falsa.

Las condiciones en las que la prueba t es la más poderosa y sin las cuales no se puede tener
confianza en cualquier aseveración de probabilidad obtenida son:
1. Las observaciones deben ser independientes entre sí. La selección de un caso cualquiera
de la población con miras a la inclusión en la muestra no debe afectar las posibilidades de
incluir cualquier otro, y el puntaje que se asigne a un caso cualquiera no debe influir en el
puntaje que se asigne a cualquier otro
2. Las observaciones deben hacerse en poblaciones distribuidas normalmente
3. Estas poblaciones deben tener la misma varianza ( o una proporción de varianza conocida)
4. Las variables correspondientes deberán haberse medido por lo menos en una escala de
intervalo, de modo que puedan hacerse con ellas operaciones matemáticas (suma, división,
cálculo de las medias, etc.)
5. En el caso de la prueba F se agrega una condición: Las medias de estas poblaciones
normales y homoscedásticas deberán ser combinaciones lineales de efectos debidos a las
columnas y a los renglones o a ambos, los efectos deben ser aditivos

Potencia-Eficiencia
A medida que son más débiles las suposiciones de un modelo particular son mas generales las
conclusiones derivadas al aplicar la prueba estadística asociada con él, pero menos poderosa es la
prueba de Ho. Esta aserción es generalmente verdadera para cualquier tamaño de muestra, pero
no se sostiene al comparar dos pruebas estadísticas que se aplican a dos muestras de distinto N.
El concepto de potencia eficiencia se refiere al incremento en el tamaño de la muestra necesario
para hacer la prueba B tan poderosa como la A

Potencia-eficiencia de la prueba B = 100 Na/Nb %


Al escoger otra prueba estadística con menos suposiciones podemos evitar las suposiciones por
medio del incremento en N.
Potencia-eficiencia de las pruebas No paramétricas
Potencia-eficiencia de la Binomial: En vista de que no hay técnica paramétrica aplicable a datos
medidos en escala nominal, carece de sentido inquirir la potencia-eficiencia de la prueba binomial
cuando se emplea con datos nominales. Al ser dicotomizado un continuo si con los datos
resultantes se emplea la prueba binomial, puede actuar disipadoramente. En tales casos, la prueba
binomial tiene una potencia eficiencia del 95% con una N de 6 disminuyendo a una eficiencia
eventual de 2/∏= 63%. Sin embargo, si los datos se prestan básicamente a la dicotomía, aunque la
variable tenga en la base una distribución continua, la prueba binomial puede no tener alternativas
mas poderosas.

BIBLIOGRAFÍA: AUTORES CITADOS POR LA DOCENTE DE CÁTEDRA Y CONSIGNADOS EN EL PROGRAMA DE LA MATERIA - LIC. EN PSICOLOGÍA ELISA NOEMÍ AGUILAR
ESTADÍSTICA ELI AGUILAR
29
Potencia-eficiencia de la Prueba χ2 para una muestra: En vista de que esta prueba suele ser
usada cuando no se dispone de otra alternativa clara, usualmente no estamos en condiciones de
calcular su potencia exacta. Cuando se usa la medición nominal o cuando los datos están
conformados por categorías inherentemente discretas, la noción de potencia-eficiencia de la
prueba χ2 no tiene importancia, en tales casos, no hay prueba paramétrica adecuada. Si los datos
permiten que pueda disponerse de una prueba paramétrica, la prueba χ2 puede ser disipadora de
la información.
Cuando gl >1, las pruebas χ2 son insensibles a los efectos de orden, y así, cuando una hipótesis
tiene en cuenta el orden, la prueba χ2 puede no ser la mejor
Potencia-eficiencia dela Prueba de McNemar: Cuando la prueba de McNemar se usa con medidas
nominales, el concepto de potencia eficiencia no tiene sentido pues no hay otra alternativa. Sin
embargo, cuando la medición y otros aspectos de los datos son tales que es posible aplicar la
prueba paramétrica t, tanto la prueba de McNemar como la binomial, tienen una potencia-
eficiencia de cerca del 95% para A+D=6, que declina a medida que aumenta el tamaño de A+D
hasta una eficiencia final asintótica de cerca del 63%
Potencia-eficiencia de la Prueba los Signos: La ptencia-eficiencia de la prueba de los signos está
cerca del 95% para N=6, pero declina a medida que el tamaño de la muestra se incrementa hasta
una eficiencia final asintótica del 63%.
Potencia-eficiencia de la Prueba de Wilcoxon: Cuando las suposiciones de la prueba paramétrica t
en verdad se satisfacen, la eficiencia asintótica cercana a Ho de la prueba de rangos señalados y
pares igualados de Wilcoxon, comparada con la prueba t es de 3/∏ = 95,5%. Esto significa que
3/∏ es la proporción límite, de tamaños de muestras, necesaria para que las pruebas de Wilcoxon
y t alcancen el mismo poder . Para muestras pequeñas la eficiencia se acerca al 95%

Potencia-eficiencia de la Prueba de Walsh: Cuando se compara con la prueba mas poderosa, la


prueba paramétrica t, la de Walsh tiene una potencia-eficiencia del 95 % para la mayoría de los
valores de Ny de α. Su potencia-eficiencia es del 99 % (N=9 y α=0.01 en una prueba de una cola)
sin bajar del 87,5 (N=10 y α=0.06 en una prueba de una cola)

Potencia-eficiencia de la Prueba de Fisher: Con la modificación de Tocher (considerando las


distribuciones de frecuencia mas extremas que pudieran ocurrir con los mismos totales
marginales), la prueba de Fisher es la mas poderosa de las pruebas de una cola para datos
adecuados
Potencia-eficiencia de la Prueba de χ2 para 2 muestras independientes : Cuando la prueba de χ2
se usa, generalmente no hay una alternativa clara, y la potencia exacta de la prueba es difícil de
calcular. Sin embargo se demostró que el límite de la distribución de potencia de χ2 tiende a 1
cuando N toma un valor grande
Potencia-eficiencia de la Prueba de χ2 para la prueba de la Extensión de la mediana (k muestras
ind) Como se sabe, la extensión de la prueba de la mediana es en esencia, una prueba χ2 para k
muestras, por tanto su potencia eficiencia es similar a la χ2 para 2 muestras independientes
Potencia-eficiencia del rango de Spearman: La eficiencia de la correlación de rango de Spearman
cuando se compara con la correlación mas poderosa, la r p de Pearson, es de cerca de 91 %. Cuando
el rs se usa con una muestra para probar la existencia de una asociación en la población, y cuando
la población tiene una distribución normal bivariada y la medición se ha hecho en escala
Intervalar, rs tiene una eficiencia del 91 % respecto a r para rechazar Ho. Si existe una
correlación entre X e Y en esa población, r s necesitará 100 casos para establecer esa correlación
al mismo nivel de significación que r logra con 91 casos
BIBLIOGRAFÍA: AUTORES CITADOS POR LA DOCENTE DE CÁTEDRA Y CONSIGNADOS EN EL PROGRAMA DE LA MATERIA - LIC. EN PSICOLOGÍA ELISA NOEMÍ AGUILAR
ESTADÍSTICA ELI AGUILAR
30
INDICADORES DEL NIVEL DE SALUD

1-Indicadores del Nivel de Salud


Los indicadores responden a la necesidad de expresar cuantitativamente las variables que son
objeto de estudio en la ciencia. Para eso, ésta debe ser correctamente definida conceptual y
operacionalmente, de modo que puedan establecerse cuales son los componentes de la variable
cuya magnitud desea medirse desde el indicador. Por ejemplo si queremos medir el nivel de
hacinamiento con fines epidemiológicos deberá tomarse la cantidad de personas por cama en cada
vivienda.

Requisitos de los indicadores


Validez: Significa que el indicador mida la variable que se pretende y no otra cosa. Por ejemplo, si
queremos medir la eficiencia de la atención médica no podemos tomar para ello el nivel de
mortalidad, pues esta depende de muchos otros componentes como la educación, la vivienda, el
ingreso económico y puede que una variación notable en la mortalidad no se deba a la eficiencia de
atención médica

Factibilidad: Significa que los datos que se requieren para calcular un indicador estén
habitualmente disponibles o pueden obtenerse de algún modo. Por ejemplo, los indicadores de
morbilidad son mejores que los de mortalidad, pero estos últimos son más factibles
Estabilidad: Significa que sean poco sensibles a las deficiencias de los datos básicos, que no se
vean demasiado influenciados por datos básicos deficientes o erróneos

Complejidad: En caso de tratarse de variables complejas debe ser posible definir la variable en
varios componentes, entonces se puede obtener un índice combinando diversos indicadores,
asignando a cada uno la ponderación correspondiente

Simplicidad y Estandarización: Deben ser de fácil comprensión y presentarse normalizados en


escalas internacionales para facilitar las comparaciones
2-Medición del Nivel de Salud
La organización Mundial de la Salud define salud como, un estado de bienestar físico, mental y
social y no solo como ausencia de enfermedad. La medición del nivel de salud puede darse a partir
de:

a) La medición positiva de la salud, o sea, del estado mismo de bienestar

b) La medición de las consecuencias derivadas de la pérdida de la salud, o sea, enfermedad y


muerte
c) La medición de los factores que determinan el nivel de salud
La medición del estado de bienestar ha sido muy tenido en cuenta en los últimos años por la
creciente conciencia de las limitaciones de los indicadores basados en la morbilidad y mortalidad,
pero es aún un campo de ensayo. La medición de los factores que determinan el nivel de salud se
utiliza en la planificación, como parte del diagnóstico de salud de una comunidad. Se relacionan
con el estado de la vivienda, la disponibilidad de servicios públicos y médicos, pero el modelo de
interrelación entre estos factores y el nivel de salud aún no se ha desarrollado, por eso se
analizan los de morbilidad y mortalidad que si son medidas que presentan una relación
cuantificable con el nivel de salud.

BIBLIOGRAFÍA: AUTORES CITADOS POR LA DOCENTE DE CÁTEDRA Y CONSIGNADOS EN EL PROGRAMA DE LA MATERIA - LIC. EN PSICOLOGÍA ELISA NOEMÍ AGUILAR
ESTADÍSTICA ELI AGUILAR
31
2.1-Indicadores basados en la Mortalidad
Ventajas: 1) La defunción es un evento concreto, único en la vida de una persona y definido
internacionalmente. 2) En la mayoría de los países existe un registro sistemático de las muertes.
3) Los datos de población requeridos generalmente se obtienen de los censos
Desventajas: 1-Deficiencia en datos básicos 2-Errores en el registro de las causas de muerte 3-
Omisiones que a veces alcanzan hasta un tercio de las defunciones 4-No reflejan toda la
complejidad del fenómeno de salud de una población 5-No expresan la ocurrencia de
enfermedades de baja o nula letalidad
2.1.1 Tasa cruda de Mortalidad: Refleja el número de defunciones anuales por 1000 habitantes y
traduce en forma global el impacto de las alteraciones letales de salud en una comunidad.
Requiere del conocimiento del total de muertes y de toda la población. Es un macroindicador y
resume los riesgos de una población heterogénea. No contempla aspectos como la edad y el sexo

2.1.2: Esperanza de vida al nacimiento: Si se disponen de las tasas específicas de mortalidad por
edad y sexo de una población se puede calcular las correspondientes probabilidades de muerte.
Con ellas se puede construir una tabla de vida que representa el curso de una generación de
100.000 nacidos vivos que hubieran estado expuestos a riesgos de muerte citados. El indicador
de nivel de salud derivado de la tabla de vida es la esperanza de vida al nacimiento y refleja el
promedio de años de sobrevida al nacimiento. Este indicador resume más comprensiblemente los
riesgos de morir observados en una población, independientemente de la estructura de edad de la
población. Para ello se precisa: población, defunciones por edad y construcción de tabla de vida

2.1.3: Mortalidad Infantil: Es una tasa que indica el número de muertes que se dan antes del año
de vida por cada 1000 nacidos vivos en una población. Aunque indica mortalidad de un grupo
etario, realmente muestra nivel de salud y vida de la población ya que los menores a un año son en
extremo vulnerables a las condiciones adversas de vida. El inconveniente de este indicador es que
no siempre se registran estas muertes y parte de las muertes del primer día son erróneamente
adjudicadas a la mortalidad fetal.
2.1.4: Mortalidad proporcional: Es el cociente entre defunciones de personas de mas de 50 años
sobre el total de defunciones, expresado en porcentaje. Requiere de pocos datos, es poco
sensible a errores de información básica y es fácil su cálculo e interpretación. Se basa en la
observación de que en los países con bajo nivel de salud la estructura de población es joven y la
mortalidad temprana es alta. A medida que los niveles de salud y de vida aumentan, disminuye la
mortalidad por debajo de los 50 años. Este indicador discrimina con más eficiencia países de
distinto nivel de vida y es mejor que la mortalidad proporcional calculada usando otra edad, por
ello parece un buen macroindicador

2.2. Indicadores Basados en la Morbilidad


Ventajas: No refleja exclusivamente la ocurrencia de enfermedades letales, sino el conjunto de
enfermedades y accidentes de una población. Desventajas: 1-La enfermedad es repetitiva y de
características variadas 2-Las definiciones operacionales pueden hacerse según diversos
criterios 3-La clasificación de las enfermedades es distinta según los estados. 4-Es imposible su
registro completo y sistemático 5-No existen criterios de diagnóstico uniforme 6-La clasificación
depende del conocimiento del médico 7-La eficiencia de los medios para diagnóstico es variable
8- La disponibilidad de los medios de diagnóstico es variable 9-Los datos están dispersos en sitios
públicos y privados 10-La percepción de enfermedad por parte del individuo depende de factores
culturales y sociales 11-La concurrencia o no a un centro de asistencia dependerá del factor
anterior 12-Solo se pueden obtener datos sobre algunas enfermedades 13-Ocurrencia de
enfermedades crónicas
BIBLIOGRAFÍA: AUTORES CITADOS POR LA DOCENTE DE CÁTEDRA Y CONSIGNADOS EN EL PROGRAMA DE LA MATERIA - LIC. EN PSICOLOGÍA ELISA NOEMÍ AGUILAR
ESTADÍSTICA ELI AGUILAR
32
Propuestas para medir niveles de salud
Sanders propone un indicador en el sentido de medir positivamente la salud y se basa en la
determinación de los días en que el individuo es capaz de desarrollar el papel adecuado a su edad
y su sexo. Sullivan propone medir el número de días en que el individuo se encuentra en alguna de
4 categorías que van desde el enfermo crónico hospitalizado a la incapacidad transitoria por una
afección aguda. Pero igualmente, hay que considerar que el hecho de que un individuo decida
suspender o reducir sus actividades debido a una enfermedad o accidente depende de factores
sociales y culturales y por tanto está sujeto a factores de variación

El objetivo fundamental de estas mediciones es orientar acciones concretas para mejorar los
niveles de salud, en tal sentido los planes de salud, mas que un único indicador, requieren de un
diagnóstico analítico de los daños de salud de la población y de los factores que los determinan.
En tal sentido, combinan variadas fuentes de información y utilizan indicadores múltiples.
Tasas, Razones y proporciones
Las tasas, razones y proporciones son los elementos mas usados en la descripción de datos
cualitativos.. En el campo de salud pública, el uso de valores absolutos es muy frecuente y llena
los requerimientos de muchos sectores, por ejemplo la necesidad del conocimiento del total de la
población de un municipio para estimar el volumen de prestaciones que debe dársele, como puede
ser el conocer el número total de nacimientos para calcular el volumen de camas que deben estar
disponibles para obstetricia

Los valores absolutos tienen innumerables aplicaciones en salud pública, particularmente los
relacionados con nacimientos, defunciones, morbilidad, etc, ya que son ampliamente usados en los
programas de planificación de actividades. Sin embargo, no son suficientes cuando se desea
comparar las cifras de un área a lo largo del tiempo o entre varias regiones entre sí, porque las
poblaciones de las cuales provienen son cambiantes y los totales absolutos pierden importancia
pues no son comparables. Para ello se usan las frecuencias relativas que no son más que
cantidades que están referidas a otras que se usan como base de comparación.
Pautas para el uso de frecuencias Relativas
1) Es necesario especificar que fenómenos se están relacionando y cual de ellos se toma como
base de referencia
2) No deben calcularse frecuencias relativas sobre valores absolutos muy pequeños, los
resultados serían muy inestables
3) Todo cociente debe expresarse a través de su valor real o puede amplificarse por un factor
que puede ser múltiplo de 10
4) Un cociente no expresa la magnitud de ninguno de los valores usados sino de la relación, por
eso todo cociente debe acompañarse por lo menos por uno de los valores absolutos que le dio
origen
Razón: Es todo número relativo que relaciona a) dos fenómenos distintos o b) dos categorías
diferentes de un mismo fenómeno. Ej: a) Promedio de habitantes por km 2. b) Relación de sexos de
los nacidos vivos
Proporción: Es la relación de dos cantidades en la cual el numerador es una parte de la registrada
en el denominador y este constituye el total de las observaciones en consideración. El resultado
se agranda por un factor de amplificación que en general es 100 y esa proporción recibe el
nombre de porcentaje. Una proporción mide el peso relativo de una parte respecto al todo del
cual proviene. Ejemplo: Proporción de pacientes que curaron con una droga con respecto al total
de pacientes tratados con dicha droga

BIBLIOGRAFÍA: AUTORES CITADOS POR LA DOCENTE DE CÁTEDRA Y CONSIGNADOS EN EL PROGRAMA DE LA MATERIA - LIC. EN PSICOLOGÍA ELISA NOEMÍ AGUILAR
ESTADÍSTICA ELI AGUILAR
33
Tasa: Es la relación existente entre el número de veces que ocurrió un hecho vital o de salud, y la
población que estuvo expuesta al riesgo de acaecimiento del hecho mencionado en el numerador.
Tiene mayor implicancia que las razones y proporciones pues involucra el factor riesgo o
probabilidad. La mayoría de las tasas miden la fuerza de acaecimiento de un fenómeno y con ello
evalúa el riesgo inherente. Una tasa está compuesta por tres elementos: numerador, denominador
y factor de ampliación. En el numerador se consigna el número de veces que se registró un
fenómeno (total de nacimientos, defunciones, matrimonios) y en el denominador la población que
estuvo expuesta al riesgo de acaecimiento de lo asignado en el numerador. Generalmente los
datos del numerador provienen de sistemas de registro permanente y los del denominador de
recuentos censales o proyecciones hechas a partir de los censos.
Para que una tasa sea correcta se debe considerar la concordancia de numerador y denominador
en lo referente a la naturaleza, tiempo y área de referencia. Respecto a la concordancia en la
naturaleza, en la tasa de mortalidad por cáncer de útero no se considera la población total pues
los hombres no pueden producir tales defunciones. Respecto del tiempo, los datos deben haber
sido enumerados en el mismo periodo. Respecto del área de referencia se deben descartar
hechos acaecidos a personas no residentes en el área, así en hospitales muy especializados los
casos que puedan registrarse pueden corresponder a personas residentes en otras áreas
Tasa general: Mide la fuerza de acaecimiento de un fenómeno en el total de la población e intenta
cuantificar la probabilidad de ocurrencia en el conjunto de los componentes.
Tasa específica: Mide un hecho registrado en un segmento de la población en relación a la
población de ese segmento
Ejemplos: Tasa general = Nº de de nacimientos en el área Y en el período Z
De Natalidad Población total del área Y, a la mitad del período Z
Tasa específica = Nº de nacimientos en un segmento del área Y en el periodo Z
de natalidad Población de ese segmento a la mitad del período
Tasas ajustadas: Que 2 tasas generales sean iguales no implica que ambas poblaciones tengan
igual riesgo de acaecimiento del fenómeno pues pueden tener estructura diferente, pero las
diferencias se compensan y los resultados finales son iguales. Ejemplo: La tasa general anual de
mortalidad por cáncer en hombres en 1962-63 fue de 259.4 por 1000.000 habitantes. En Lima en
igual período fue de 91.9. Al comparar ambas poblaciones se ve que en La Plata un 36% de la
población tiene entre 45-74 años y en Lima solo un 20%, Lima tiene una población mas joven y por
ello menos expuesta a tal riesgo. Debe entonces eliminarse esa diferencia. Suprimiendo las
diferencias de edad, las tasas son 132.16 y 112.5, la disimilitud tiende a disminuir. Por ello cuando
se desean comparar dos poblaciones respecto a cierto riesgo deben tomarse uno de dos caminos:
1) Comparar las tasas específicas: Se comienza estableciendo cuál es el factor específico mas
importante (edad, sexo) luego se obtienen las tasas específicas correspondientes y luego se
comparan clase a clase, las clases de cada tramo. Esto se puede hacer cuando el número de
clases es pequeño sino debe optarse por el segundo método
2) Comparar las tasas ajustadas: a) Se determinan cuáles son los factores de variación posible b)
Se aísla el que se supone mas probable c) Se estudia la estructura de las poblaciones tabuladas y
se detectan similitudes o diferencias d) se calculan las tasas específicas para cada tramo y se las
compara una a una
BIBLIOGRAFIA
· Slonim, M. (1967). Muestreo: Guía ágil y precisa de Estadística Práctica. Buenos Aires:
Editorial Americana.
· Siegel, S. (1970). Diseño experimental no paramétrico aplicado a las ciencias de la
conducta. México: Editorial Trillas SA.
BIBLIOGRAFÍA: AUTORES CITADOS POR LA DOCENTE DE CÁTEDRA Y CONSIGNADOS EN EL PROGRAMA DE LA MATERIA - LIC. EN PSICOLOGÍA ELISA NOEMÍ AGUILAR