Sunteți pe pagina 1din 40

Estadística Aplicada a la Educación Física

Antes que nada tengo Material para practicar ejercicios y buenos cuadros conceputales para sacarle
fotocopias! Cualquier cosa pregunten!

Unidad 1

Estadística: es una forma de pensar y tratar cierta problemática que la realidad plantea, de una
manera más elaborada, consistente y exacta que lo que hace el pensamiento ingenuo.

Según Cortada de Cohan, por estadística entendemos los métodos científicos por medio de los cuales
podemos recolectar, organizar, resumir, presentar y analizar datos numéricos, relativo a un conjunto
de individuos u observaciones y que nos permiten extraer conclusiones válidas y ejecutar decisiones
lógicas basadas en dicho análisis.

La estadística se usa para estudiar fenómenos en los que tenemos gran cantidad de observaciones y
cuya aparición se rige por leyes del azar o aleatorias.

La estadística en su aspecto metodológico es una técnica adecuada al estudio cuantitativo de los


fenómenos de masa.

El objetivo fundamental es sintetizar la información de manera tal que se pueda tomar decisiones y
disminuir el grado de incertidumbre.

Los modelos estadísticos nacen de la matemática. Acceder a la conceptualización estadística


posibilita la utilización del lenguaje matemático en reemplazo o complementando el lenguaje textual.
Implica mayor objetividad y universalidad minimizando las perturbaciones.

Permite sintetizar y visualizar la información mediante el uso de tablas y gráficos que facilitan la
rápida percepción y aprehensión del fenómeno en estudio.

La estadística y la investigación: Naturaleza de las técnicas estadísticas utilizables en Cs. Sociales:


Medición en Cs. Sociales: Para llegar a los desarrollos actuales de la investigación en Cs. Sociales,
hubo que comprender cual es la relación de isomorfismo que se puede establecer entre le mundo
ideal de la lógica matemática y el mundo de la investigación. La función de la matemática es proveer
modelos fructíferos para la descripción de la naturaleza. La medición es posible porque la estructura
de la naturaleza del pensamiento del hombre o su actividad social, poseen propiedades que desde el
punto de vista lógico son suficientemente similares a la estructura de los sistemas lógicos de la
matemática. Se puede establecer entre la naturaleza y la matemática un isomorfismo de estructuras.

Tipos de estadísticas:

-Descriptiva: estudia una característica de un grupo y el objetivo fundamental es obtener una


síntesis lo más objetiva posible de la información recogida.
-Inferencial: a partir de los resultados obtenidos en la muestra, inferimos conclusiones sobre la
población correspondiente. Aplicamos el lenguaje probabilístico para sacar las conclusiones.

Medición: asignación de números a objetos o a hechos de acuerdo a ciertas reglas. Una relación de
isomorfismo (equivalencia de formas) entre la estructura lógica del sistema numérico y la estructura
de la naturaleza, que se manifiesta en las propiedades que se miden. Para aplicar el modelo
matemático a la naturaleza hay que tener en cuenta las características de la serie real de los números
que son:

-Orden: los números están ordenados de menor a mayor.

-Distancia: la diferencia entre los números también están ordenadas.

-Origen: la serie tiene un origen único que llamamos cero (0)

En la medición hay determinados grados de perfección de acuerdo a la adecuación de las variables a


medir con las propiedades lógicas de los números.

Postulados básicos de medición:

-De identidad o equivalencia: -números iguales o diferentes

-la igualdad es simétrica

-la igualdad es transitiva

-Relativo al orden jerárquico: -la relación mayor que es asimétrica

-transitividad

-Relativos a la aditividad: -posibilidad de sumar

-el orden de los sumando no afecta el resultado

-los objetos idénticos pueden sustituirse

-el orden de las asociaciones no cambia el resultado

Niveles de medición: Según Stevens hay 4 escalas fundamentales:

-Nominal: sólo clasifica objetos, personas o características. La asignación de números es


arbitraria. Las condiciones que requiere son que los miembros, elementos u observaciones de una
clase o categoría deben ser equivalentes, idénticos respecto al atributo evaluado (las categorías son
excluyentes). Rigen los postulado de identidad. Admite sólo variables cualitativas.

-Ordinal: por orden jerárquico, cuando se presenta la relación de mayor que o menor que se
presenta entre los pares de categorías tenemos una categoría ordinal. Rigen los postulados de
identidad y de orden jerárquico. Están permitidas las transformaciones monotónicas que mantengan
el orden entre las clases. No se sabe la distancia entre una característica y otra. Admite variables
cualitativas y cuantitativas.
-Intervalos iguales: las distancias numéricamente iguales representan distancias iguales
empíricamente en la variable que miden. Tienen unidad de medida común y constante que asigna un
número a todos los pares de objetos del conjunto ordenado. La ausencia (0) de la variable es por
convención. El punto cero de origen y la unidad de medida son arbitrarias. La relación entre
intervalos es independiente de la unidad empleada y del punto de origen. Es la 1ª escala
verdaderamente cuantitativa.

-Por concientes o razones: el punto cero es de origen real, coincide con la nada. Permite todas las
operaciones aritméticas. Sólo es arbitraria la unidad de medida. Permite transformaciones del tipo y
= b.x. Variables cuantitativas continuas.

Unidad 2

Etapas de la investigación científica: elaboración de un plan o diseño de la investigación; compilación


de los datos; sistematización de los datos; análisis estadístico propiamente dicho.

Cuando se recolectan los datos a través de encuestas, entrevistas, etc., lo 1º que hay que hacer es
presentarlos de modo sistemático mediante tablas y gráficos; luego se sistematiza la información (se
construye una matriz de datos donde se contienen las unidades de análisis).

Unidad de análisis: la mínima unidad sobre la cual se realiza el análisis. Es un miembro individual de
un grupo de personas, lugares o cosas. Es la expresión o tamaño más pequeño representativo de las
características, conceptos o variables a estudiar.

Variables: es un símbolo que puede asumir distintos valores posibles. Son las características o
propiedades de las entidades a estudiar, es lo que está siendo observado.

Según el criterio metodológico se las clasifica en:

-Independientes: es el objeto de interés que varía en respuestas a alguna intersección. Pueden


ser:

Orgánicas: condicionan al propio sujeto

Situacionales: tienen que ver con un entorno.

-dependientes: ésta es la que varía en respuesta a la variable independiente.

Según el criterio psicológico se las clasifica en:

-Cualitativas: atributos, pueden ser divididas en clases separadas y mutuamente exclusivas.


Pueden tener una pauta de orden ej: notas de un examen.

-Cuantitativas: -discretas: hay separación total entre un valor y otro. Se pueden contar.

-continuas: pueden tener cualquier valor en un ámbito finito de valores continuos.


Se miden.
Según criterios Manipulativos:

-Activas: sobre las que un investigador puede actuar, ej: nivel de orden

-Asignadas: se pueden controlar por medio de la selección y no pueden ser modificadas, ej: la
edad

Según criterio Teóricos Explicativos:

-Variables de estímulo

-Variables intermedias

-Variables de respuesta

Dimensión: determina el criterio de análisis de la muestra y el análisis de la variable

Construcción de matices de datos (tabulación e interpretación): El trabajo de síntesis u organización


de la variable que se esté usando.

-En el caso de las variables cualitativas:

-Se determinan las categorías o valores de esa variable, que implica agrupar las observaciones en
categorías mutuamente excluyentes.

-Se establece la cantidad de veces que se repiten cada una de las categorías en la variable se
utiliza el método de conteo.

Frecuencia absoluta: surge del conteo. Cuantos casos hay dentro de esa determinada categoría. n:
cantidad de casos.

Frecuencia relativa: transferencia de la frecuencia absoluta en términos de porcentajes o


proporciones (la suma es igual a 100) Fr = f/n

-Se comparan los datos obtenidos en las distintas categorías o valores entre sí, o con los datos de
otras muestras o grupos lo que permite sacar conclusiones.

-En el caso de las variables cuantitativas:

-Se determinan los límites de la variable, cual es el menor y el mayor valor.

-Se obtiene la frecuencia absoluta correspondiente a cada valor. Cuando son pocos los valores de
la variable se utiliza el método de conteo y cuando son muchos su usa el damero.

-Se comparan los datos obtenidos en las distintas categorías o valores entre sí, con los datos de
otras muestras o grupos lo que permite sacar conclusiones.

-Una vez determinadas las circunstancias debemos pensar de que manera se presentan estos
datos para su fácil manipulación.

-Cuando la amplitud de la variable es reducida utilizamos una tabla simple de frecuencias. Cuando
es demasiado extensa agrupamos los valores de la variable en intervalos de clase.
Unidad 3: Presentación de los datos

La organización y presentación de los datos permite sintetizar y visualizar la información mediante la


utilización de tablas y gráficos.

La representación gráfica de los daos es un medio auxiliar. El objetivo es brindar la información de


manera más atractiva y expresiva.

Construcción de tablas y gráficos pata todos los niveles de medición: la forma de la tabla dependerá
del objetivo de la investigación y la cantidad de variables que analicemos. Tablas simples para una
variable o tablas de doble o triple entrada si fueran más de una.

-Pautas de construcción: deben ser simples y de fácil lectura; título claro y exacto; se mencionará la
fuente de los datos en caso de que éstos no sean originales; cada fila y cada columna debe ser
titulada claramente.

-El trabajo de síntesis u organización depende de la variable que se esté usando:

-Cualitativas:

se determinan las categorías o valores de esa variable (que implica agrupar las observaciones en
categorías mutuamente excluyentes);

se establece la cantidad de veces que se repite cada una de las categorías en la variable (se precisa la
frecuencia absoluta, con el método de conteo);

se comparan los datos obtenidos en las distintas categorías o valores entre sí, o con los datos de
otras muestras o grupos, (se sacan conclusiones probabilísticas).

-Proporciones: relación entre los datos de la frecuencia absoluta con el total de casos con el que
estamos trabajando (frecuencia relativa). La suma es igual a 1. Siempre hay que informar sobre el nº
de casos usados.

-Porcentajes: es calcular el porcentaje de casos que esta representado en cada frecuencia. Es la


frecuencia porcentual. La suma es igual a 100. Siempre hay que informar sobre el nº de caos usados.
No debe calcularse ningún porcentaje cuando el nº total de casos es menor de 50.

-Razones: comparación de las frecuencias absolutas obtenidas en una categoría con las obtenidas
en otras categorías del mismo grupo. Puede ser =, > o < a 1.

-Tasas: tipo especial de razón, se usa cuando el denominador es muy alto. Se toman valores de la
misma categoría en tiempos distintos. Se multiplica el numerador por una constante.

-Números índices: miden los cambios de una variable o grupo de variable, respecto al tiempo.

-Representaciones gráficas: es un medio auxiliar cada vez más usado, caracterizado por la
percepción visual. Su objetivo es brindar la información de la manera más expresiva y atractiva. Se
utilizan: gráfico sectorial: es el más usado cuando se quiere mostrar proporciones de una totalidad,
la comparación se realiza con los sectores de un círculo (se torna complicada la interpretación
cuando la cantidad de categorías es numerosa); diagrama de barras: es útil para comparar valores
relativos de algún rasgo que poseen uno o más grupos o también para comparar variables diferentes,
la longitud del rectángulo representa la frecuencia absoluta o porcentual y el ancho se fija
arbitrariamente; pictogramas: se toma un dibujo que representa esquemáticamente un valor
numérico.

-Cuantitativas:

se determinan los límites de la variable (menor y mayor valor);

se obtiene la frecuencia absoluta correspondiente a cada valor (mediante el método de conteo o el


damero);

si la amplitud de la variable es demasiado extensa se agrupan los valores en lo que se llama intervalo
de clase.

Frecuencias agrupadas en intervalos: esto supone pérdida de información ya que se da un supuesto


de que todas las observaciones de un intervalo se concentran en el PM del intervalo

-Modulo (i): la amplitud de cada intervalo de clase, depende de: la amplitud que abarcan los valores
de las variables y la cantidad de observaciones

-Limite aparente: es la cifra tal como aparece en la tabla

-Límites reales: se utiliza cuando trabajamos con variables continuas y se halla restando 0,5 al límite
inferior y sumando 0,5 al límite superior; el límite superior real de cada intervalo de clase será igual al
límite inferior real del intervalo siguiente.

-Punto medio (PM): cuando los datos están agrupados en clases, el problema es saber a que valor
del intervalo se le debe asignar la frecuencia absoluta. Se acepta como el valor más representativo
del intervalo al punto medio.

Frecuencia acumulada (F): sirve para conocer la cantidad de valores mayores que, o menores
que, un determinado valor. Se calcula sumando la frecuencia acumulada anterior más la frecuencia
absoluta del intervalo. Se grafica en la Ojiva de Galton.

Representaciones gráficas: Cuantitativas discretas: grafico de barras, gráfico sectorial y


pictograma. Cuantitativas continuas: Polígono de Frecuencias: en el eje horizontal se distribuyen los
valores y en el eje vertical la frecuencia absoluta, se distribuye el total de las frecuencias absolutas
de cada intervalo al punto medio del mismo, como es un gráfico de superficie es necesario cerrar al
comienzo y al final sobre el eje x (en el punto medio anterior y posterior); Histograma de Pearson:
gráfico de superficie, sobre el eje horizontal se distribuye la variable y sobre el vertical las frecuencias
absolutas, se usan los límites reales de cada intervalos (todas las barras están pegadas).

Unidad 4: Medidas de posición


Medidas de Posición: La tarea de resumen consiste en presentar sólo unas pocas características que
den cuenta de la distribución de frecuencias, , para relacionar y comparar distintos tipos de
distribuciones. Las medidas de posición están compuestas por las medidas de tendencia central y las
medidas de orden.

-Medidas de tendencia central: dan rápida descripción de las distribuciones, se debe seleccionar en
cada caso la adecuada. Constituyen un valor de la variable alrededor de la cual se halla la mayor
cantidad de observaciones. Son tres:

-Modo (Mo): es aquel valor de la variable que se repite más veces, o sea el que posee mayor
frecuencia. La distribución puede contener un modo (unimodal), dos modos (bimodal), ,o más de dos
modos (polimodal). Es la única medida de tendencia central que se puede hallar en todos los niveles
de medición.

Ventajas: muestra el valor más importante de un conjunto; no se afecta por valores extremos en
una dirección; se pueden obtener cuando se desconocen los valores extremos, es muy fácil de hallar
(se halla a simple vista).

Desventajas: no considera el valor exacto de cada unidad; no es útil para un conjunto de datos
chicos; no se puede estimar con certeza cuando los datos se agrupan en intervalos; no se puede
emplear en estimaciones de parámetros de población.

-Mediana (Md): es aquel valor o categoría de la variable que divide a la variable en dos partes
iguales, de manera tal que la mitad de casos toman valores inferiores a ella y la otra mitad tiene
valores superiores. Las observaciones deben estar ordenadas por lo que sólo pueden ser halladas a
partir del nivel ordinal. Se utiliza con un distribución asimétrica, cuando hay intervalos abiertos.

Para datos sin agrupar: se debe determinar cual es el orden que le corresponde, que resulta de
dividir en 2 el total de casos (Mdo = n/2; si hay menos de 30 casos la Mdo = n + 1/2 se corrige el
resultado con un factor de corrección que es sumarle 1). Luego hay que buscar el valor de la variable
que corresponda a ese orden.

Para datos agrupados: hay que calcular las frecuencias acumuladas, luego hallar el orden y ubicar
ese orden en la primera frecuencia que lo contenga. Y allí ver cual es el

valor de la variable que le corresponda.

Para datos agrupados en intervalos: se debe ordenar los valores de la variable, hallar las frecuencias
acumuladas, calcular la mediana de orden y calcular el valor de la mediana según la formula.

Fórmula: Md = LRi + Mdo – Fa . i

Fi

Cuando el total de casos es menor que 30 es conveniente agregar una unidad al total de casos para
disminuir el error. Cuando el número es impar, la mediana es el caso del medio.
Ventajas: es más fácil de calcular que la media; no se afecta por valores extremos en una dirección;
se puede obtener cuando se desconocen los valores extremos.

Desventajas: no considera el valor exacto de cada unidad; no se puede utilizar en estimaciones; si son
pocos valores puede no ser representativa.

-Media aritmética (X): es un promedio, es decir, la suma de cada una de las observaciones
dividida por el total de casos. Sólo puede ser hallada cuando trabajamos con variables cuantitativas
(niveles de medición del ordinal en adelante). No conviene usarla cuando se trata de valores
extremos no compensados. Se utiliza en escalas de intervalos iguales o por concientes, cuando
conocemos todos los valores de la distribución y si esta es más o menos simétrica.

Propiedades de la media:

La sumatoria de los desvíos a la media = 0

Si se suma, resta, multiplica o divide a cada valor de la variable por una constante la media resultará
afectada por la misma operación

La media es susceptible de operaciones algebraicas, es decir, si conocemos la media de varios grupos


de observaciones podríamos hallar la media del conjunto total.

Para datos sin agrupar: la media es igual a la sumatoria de los valores de la variable y el número
total de casos.

Fórmula: X = å x

Para datos agrupados: las datos estarán agrupados en frecuencias, la media será igual a la
sumatoria de cada valor de la variable multiplicado por la frecuencia, dividido por el total de casos.

Fórmula: X = å (x . f)

Para datos agrupados en intervalos: cada intervalo está representado por su punto medio (PM) y
la media será igual a la sumatoria de los PM multiplicados por la frecuencia y divididos por el total de
casos.

Fórmula: X = å (PM . f)

Ventajas: es la estadística utilizada en la estimación de parámetros poblacionales; no tiene el


mismo valor que otros dentro del grupo; actúa como punto de apoyo (centro de gravedad de la
distribución); es la más sensible de las mediciones de tendencia central.
Desventajas: la alta sensibilidad que posee puede ser una desventaja; una única puntuación que
se encuentre en un extremo en una dirección, puede distorsionar la media, mientras que extremos
en ambas direcciones tienden a cancelarse uno a otro.

Media total: media que nos permite calcular un promedio general de distintos grupos.

Formula: Xt = X . n + Xa . n2 + Xb . n3 …..

ntotal

MEDIA

MEDIANA

-Totalidad de los casos

-Es afectada por el cambio de los valores extremos

-varía menos son respecto a una u otra muestra

-para escalas de intervalos iguales y por cocientes

-distribución más o menos simétrica

-sólo utiliza el punto medio

-cambiará sólo si lo hace el valor del caso medio

-la mediana de las muestras difieren de una a otra muestra

-para escala ordinal, intervalos iguales y por concientes

-distribución asimétrica

MdTC nivel de medición

Nominal

Ordinal

Intervalos iguales

Por cociente

Media

X
X

Mediana

Modo

-Media geométrica: para una serie de valores, es la raíz enésima del producto de sus valores. Se
usa poco y con logaritmos para calcular las raíces enésimas.

-Media total (Xt): nos permite calcular un parámetro general de diferentes grupos.

Formula: Xt = X1 . n1 + X2 . n2 ….

nt

-Medidas de orden: medidas no centrales, que pueden calcularse gráficamente hallando la Ojiva de
Galton. Ellas son:

-Cuartiles: son tres y dividen el área o frecuencia en 4 partes = de 25% cada una.

Formula: C2o = 2 . n C2 = Li + C2o – Fa . i

4 Fi

-Deciles: son 9 y dividen el área en 10 partes = de 10% cada una.

Fórmula: igual al cuartil

-Percentiles: son 99 y dividen el área en 100 partes = de 1% cada una.

Fórmula: igual al cuartil

Todas las medidas de orden se definen por el porcentaje de casos que dejan por debajo.

Ojiva de Galton: sobre el eje x se marcan los límites reales superiores de cada intervalo, en el eje
y las frecuencias acumuladas. Paralelo al eje y se traza un eje de porcentajes, en donde el 100%
corresponderá a la mayor frecuencia acumulada, al total de los casos. En el límite superior de cada
intervalo se marca la frecuencia acumulada que le corresponde. Se unen los puntos, como una S si la
distribución fuera normal.

Unidad 5: Medidas de variabilidad

Medidas de variabilidad: sirve para determinar como varían los puntajes u observaciones en relación
a la tendencia central. Ej.: cuando comparamos 2 distribuciones puede pasar que tengan la misma
media pero ser distintas en cuanto a la distribución. Dan cuenta de la homogeneidad o
heterogeneidad de un grupo. Ellas son:

-Amplitud total (At): es la diferencia entre el mayor valor y el menor valor de la variable, cuando
usamos los límites aparentes debemos sumarle un punto. Da una idea aproximada de la variabilidad,
no es muy confiable cuando hay huecos. Se usa en muestras pequeñas y no es comparable en grupos
de n distinta.

Formula: At = V - v

Ventajas: fácil de calcular, incluye valores extremos.

Desventajas: no es representativo (no nos dice si los valores están agrupados o no de manera
cercana al rededor de la media)

-Desviación semicuartil (Q): es la mitad de la distancia entre el cuartil 1 y el 3, o lo que es lo


mismo el percentil 25 y el 75 de una distribución. Se calcula cuando se halla como medida de
tendencia central a la Md, es decir, en una distribución asimétrica. Sirve para el nivel de medición de
intervalos iguales o por cocientes. Se resuelve hallando primero el valor de los cuartiles. La distancia
entre el C1 y C3 marca los límites del 50% central de la distribución. Si los puntajes se concentran en
el centro, los cuartiles estarán cerca y Q será pequeña, si los puntajes están diseminados los cuartiles
estarán separados y Q será más grande.

Fórmula: Q = C3 – C1

La distancia entre los cuartiles nos da una idea de la simetría o asimetría de la distribución.

cuando C1 + Q = C2 es simétrica

cuando C1 + Q > C2 es asimétrica positiva

cuando C1 + Q < C2 es asimétrica negativa

Cuanto mayor es el valor de Q mayor heterogeneidad. Esta desviación se usa cuando se toma como
medida de tendencia central a la mediana, lo que indica que la distribución es asimétrica.
Ventajas: es representativo del agrupamiento central de valores; es muy sencillo de calcular.

Desventajas: no considera valores extremos; inexacto cuando existen intervalos largos.

-Desviación Estándar (S): se emplea cuando hemos hallado la media de medida de tendencia
central, se basa en la desviación de los puntajes respecto a ella. Es el promedio de los desvíos a la
media. Se eleva al cuadrado cada uno de los desvíos (porque sino da 0) y luego se extrae la raíz con lo
que se reduce este promedio a la unidad que tenía las observaciones originales. Por lo que el desvío
estándar es la raíz cuadrada del promedio del cuadrado de las desviaciones de las medidas respecto
a su media. Es la medida que varía menos cuando se calculan distintas muestras de una población. Se
expresa en la misma unidad de medida que la variable que estamos usando. Cuanto menor sea el
valor del desvío estándar más homogéneo será el grupo.

Propiedades:

si se suma o resta a todos los valores de la variable un valor constante, la media queda aumentada o
disminuida en este valor pero el desvío permanece igual.

Si se multiplica o divide cada valor de la variable por un valor constante tanto la media como el
desvío se ven afectados por esa operación.

Para datos sin agrupar: hay que calcular la X, calcular los desvíos de cada puntaje respecto a la X,
elevar cada desvío al cuadrado, hallar la sumatoria de éstos y reemplazar por la fórmula.

Formula: S = å (X – X)2

¶ n

Para datos agrupados: se siguen los pasos anteriores, pero se deberá multiplicar por la frecuencia.

Formula: S = å (X – X)2 . f

¶ n

Para datos agrupados en intervalos: el punto medio representa los valores de cada intervalo por
lo que se reemplaza X por PM en la fórmula.

Formula: S = å (PM – X)2 . f

¶ n

Ventajas: se puede utilizar en estimaciones de los parámetros de población; considera todos los
valores; es la más sensible de las medidas.

Desventajas: un poco más complicada de calcular.

-Variancia (S2): es el promedio de la suma de los cuadrados de los desvíos a la media, o sea el desvío
estándar elevado al cuadrado. La raíz cuadrada no permite aplicar la propiedad distributiva para la
suma y resta, por lo tanto cuando queremos analizar la desviación en sus distintos componentes se
recurre al cálculo de la varianza.

Formula: S2 = å (X – X)2

Ventajas: se puede utilizar en estimaciones de los parámetros de población; considera todos los
valores; es la más sensible de las medidas.

Desventajas: un poco más complicada de calcular.

-Coeficiente de variación (CV): es una medida de variabilidad relativa, se expresa en porcentaje, por
lo que permite la comparación entre variables medidas en unidades diferentes, en cuando
tratándose de la misma unidad de medida, las medias son muy distintas. Se usa en el nivel de
cocientes o razones.

Formula: CV = S . 100

Unidad 6: Teoría de la probabilidad

Probabilidad: la probabilidad de un determinado acontecimiento se define como la frecuencia


esperada de presentación de ese acontecimiento entre otros de la misma índole. Puede basarse en
un conocimiento de las condiciones que determinan que se produzca el fenómeno o en datos
empíricos. Puede establecerse matemáticamente como una razón.

Estas razones llamadas cocientes de probabilidad se definen por aquella fracción cuyo númerador
sea igual al resultado deseado y cuyo denominador sea igual a la totalidad de resultados posibles.

Si hay n factores, independientes, siendo idéntica la probabilidad de presencia o ausencia de cada


uno, las probabilidades compuestas de distintas combinaciones se expresan por el binomio (P + Q)n;
siendo P, la probabilidad de que un determinado acontecimiento ocurra; Q, la probabilidad de que
no suceda y n, el número de factores

El desarrollo binominal se aplica con mayor utilidad a los casos en que interviene un número mayor
de factores independientes.

En todo estudio se considera P + Q = 1, así toda relación de probabilidad es posible, pero cuando P no
es igual a Q, las distribuciones son asimétricas y no normales.

-Probabilidad a priori: según Laplace la probabilidad (P) de un hecho es el número de casos


favorables divididos por el número total de casos igualmente posibles. Es a priori, porque no necesita
investigación empírica.
-Probabilidad a posteriori: de naturaleza empírica y tiene en cuenta la frecuencia. La probabilidad es
el cociente entre el número en que el hecho ocurre y el número de veces que se examina
(Kolmogorof).

-Enfoque subjetivo: la probabilidad de un hecho A es interpretado como una medida de la confianza


que una persona razonable asigna a un hecho A (Savage). Este punto de vista postula que el individuo
en cuestión es en cierto modo razonable, pero no niegan la probabilidad de que 2 personas
razonables, frente a la misma evidencia, puedan presentar distintos grados de confianza en la verdad
de la misma proporción. Este enfoque puede ser aplicado a hechos que todavía no han ocurrido, ,a
hechos que sólo ocurren una vez y no requieren un experimento con gran cantidad de ensayos, es un
enfoque muy flexible y puede ser aplicado a muchas situaciones.

La diferencia entre las 2 primeras definiciones es que el enfoque de Laplace es una definición teórica
y la de Kolmogorof es operacional.

Cuando la cantidad de intervalos tiende al infinito el resultado a posteriori es semejante al resultado


de la probabilidad a priori.

Leyes de Laplace:

El valor numérico de la probabilidad es siempre un número positivo o nulo y nunca mayor que 1

Ley de suma o probabilidad simple: si 2 hechos A y B se excluyen mutuamente la probabilidad de


obtener A o B es igual a la probabilidad de obtener A + la probabilidad de obtener B. “Excluirse
mutuamente” quiere decir que A y B no pueden ocurrir simultáneamente en el mismo experimento.

Ley de multiplicación o probabilidad compuesta: si A y B son 2 hechos cualesquiera, la probabilidad


de obtener ambos A y B, es el producto de la probabilidad de un hecho por la probabilidad
condicional de obtener el otro, una vez que se ha obtenido el primero. “Probabilidad condicional”
significa que nosotros reconocemos que la probabilidad de A puede depender de si B se presenta o
no. Dos hechos son independientes cuando y sólo cuando la probabilidad de un hecho A habiéndose
dado B es igual a la probabilidad de A, no habiéndose dado B. En este caso, la probabilidad
compuesta de A y B sería su producto.

Relación entre probabilidad y teoría de los conjuntos: podemos considerar todos los resultados
posibles de una experiencia (tiradas de monedas al aire) como puntos en un espacio que se llama
“espacio muestral” y que simbolizamos por S. Si S contiene una cantidad finita de puntos, entonces
cada punto puede vincularse a un valor positivo llamado “probabilidad” y la suma de todos estos
valores correspondientes a cada punto es la unidad. Un hecho es un “conjunto” de puntos en el
“espacio”.

Si tenemos un universo finito que es el conjunto S y un subconjunto A contenido en S y llamamos


N(S) los elementos de S y n(A) los elementos de A, la probabilidad de A en relación a S es:

P(A) = n(A)

N(S)

A Ì S ® A pertenece a S
Si S es un universo con subconjuntos A y B cuyas probabilidades conocemos como P(A) y P(B)
entonces tenemos:

-La probabilidad del complemento de A será: P(A) = 1 – P(A)

-La probabilidad de la unión de A y B será: P(AUB) = P(A) + P(B) – P(A B)

-Si A y B son mutuamente excluyente, entonces la probabilidad de la unión será: P(AUB) = P(A) +
P(B)

-Si A y B son estadísticamente independientes: P(A B) = P(A) . P(B)

-La probabilidad de la intersección de A con B es: P(A B) = P(A) . P(B/A)

-Si A y B son estadísticamente independientes: P(A/B) = P(A/B) = P(B) A: no A

Rudimentos de análisis combinatorio: para obtener las probabilidades de los hechos complejos a
menudo es difícil la enumeración de los casos y para facilitar la labor se usa el análisis combinatorio.
Hay 3 formas de hacerlo:

-Variaciones o arreglos: son los subgrupos de n objetos tomados de r en r siendo r<n. El número
de variaciones es igual al producto de las r enteros decrecientes a partir de n.

Fórmula: Vnr = n! .

(n – r)!

-Permutaciones: son los modos de clasificar todos los objetos del conjunto o sea n objetos
tomados de a n, lo que se indica con n!

Formula: Pn = n!

-Combinaciones: son las variaciones de n objetos tomados de r pero sin tener en cuenta el orden.
Es el cociente entre las variaciones de n objetos tomados de a r y las permutaciones de r

Formula: . n! .

Vnr = (n – r)! = n! .

Pn r! (n – r)! r!

Distribuciones probabilísticas: ellas son:

-Distribución binominal: es una distribución aleatoria de variables cuantitativas discretas que


pertenecen al nivel ordinal. Es para casos donde no podemos encontrar con 2 aspectos éxito o
fracaso. Siendo P la probabilidad del hecho ocurra y Q la que no ocurra. La probabilidad de que un
hecho ocurra r veces en n pruebas esta dad por la siguiente formula: P(r) = Cnr. pr . qn-r, esta
formula define una distribución aleatoria de variables discretas y cuya descripción debemos a Jaques
Bernouilli y que se llama distribución binominal.

Las probabilidades compuestas de distintas combinaciones se expresan por el desarrollo del binomio
(P + Q)n. Los valores de las combinaciones, se llaman coeficientes binominales y pueden hallarse
fácilmente por el conocido triángulo de Pascal o Tartaglia.

El desarrollo binominal se aplica con mayor utilidad a los casos en que interviene un número mayor
de factores independientes. Es un modelo teórico donde se combinan la ley de la suma y la del
producto (leyes de Laplace). Este modelo teórico posee los 4 momentos (X, S, As, Cu).

-Esperanza matemática: cuando una variable aleatoria (al azar), puede tomar solo un conjunto
finito de valores (valores que son números enteros), hablamos de variables discretas. La distribución
de frecuencias puede transformarse en una distribución de probabilidades. Siempre que tenemos
una variable aleatoria discreta en la que haya valores de x1 a xn la serie de las probabilidades de
ocurrencia para los n valores es igual a 1. La media aritmática de una distribución de probabilidades
se llama esperanza matemática, el valor esperado para una variable aleatoria x cuyo símbolo es E(x)
se obtiene sumando el producto de cada uno de los valores en que puede darse la variable por su
probabilidad.

Formula: E(x) = å X . p(x)

-T de Student: (para n < 30) la distribución de la t de Student es unimodal y simétrica, con media igual
a 0; es la distribución más chata, más aplanada que la distribución normal, más platicúrtica, y esto
dependerá del tamaño de la muestra; si n es muy pequeña la distribución normal será muy chata. Se
puede usar en varios puntos de significación. Debe suponerse que la distribución de la población
debe ser normal, especialmente si n es muy pequeña.

Fórmula: t = X – X

-Distribución de Poisson: cuando n es muy grande y P es pequeña, el cálculo de la probabilidad


binominal es una tarea muy difícil. Para estos casos existe una forma límite de la distribución
binominal que es la distribución de Poisson. Es una de las distribuciones de probabilidad más usadas.

Cuando n es grande y p se hace pequeña el producto n.p no varía y la distribución binominal se


acerca a la de Poisson.

En la distribución de Poisson n . p = l y la distribución de Poisson la podemos definir como: Poisson (r;


l) = e . l r

r!

La diferencia entre la binominal y la distribución de Poisson es que en la binominal el número de


ensayos n se conoce, mientras que en la distribución de Poisson, no se conoce. En la distribución de
Poisson el valor de su media y de su desviación estándar es igual y vale l.

-Distribución multinominal: puede considerarse una extensión de la distribución binominal, pero en


vez de presentar solo dos alternativas, éxito y fracaso, se usa cuando existen más de dos.

-Distribución hipergeométrica: se usa cuando se hace el muestreo sin reemplazo, es poco usual.

-X2 (ver unidad 8)


-Distribución normal: es un modelo matemático para explicar los fenómenos que empíricamente
presentan distribuciones en forma de campana como por ejemplo: variables psicológicas, sociales,
educacionales, económicas, errores de medición, etc). En ésta distribución todos los factores n se
consideran como similares, independientes e iguales en fuerza y la probabilidad de cada uno esté
presente es la misma. Las variables están relacionadas, los valores de una dependen de los de la otra
(una es función de la otra). En la distribución binominal la variable r es discreta, sin embargo a
medida que n aumenta, de modo que se acerca al infinito, la curva que puede dibujarse se hace
totalmente suave y la distribución pasa a ser la de una variable continua que se llama “distribución
normal”.

La fórmula para ésta función normal es:

y: altura de la curva sobre el eje X

-_X2 x: puntajes (expresados como desviaciones de la media)

2. s2 extendidos sobre el eje X

Y= N .e N: número de casos

s . ¶2. p s: desvío estándar

e: base de los logaritmos neperianos(2,718)

p: relación de la circunferencia con su diámetro (3,14159)

Curva Normal: sirve para determinar los coeficientes de cada uno de los términos del desarrollo de
un binomio. Para variables continuas. La distribución de frecuencias se aproxima a un tipo de curva
en forma de campana. La curva normal se usa como modelo matemático para explicar fenómenos
que empíricamente presentan distribuciones en forma de campana. La curva de distribución normal
es la expresión gráfica de una función matemática que sirve de modelo.

Características: es simétrica respecto al punto medio del eje horizontal. El punto por el que es
simétrica es el punto en el que caen la X, la Md y el Mo.

Es mesocúrtica, tiene una altura media.

El área total de la región incluida entre la curva y el eje x es igual a 1, es la certeza, teóricamente
es el 100% lo que se escapa (porque es asintótica) en los extremos son casos insignificantes. Un
cambio en el valor de la media aritmética produce solamente un desplazamiento de la curva sin
modificar su forma, mientras que cualquier variación en el desvío estándar, equivale a un cambio de
escala en los ejes de la variable x.

La curva es abierta en los extremos (asintótica) y teóricamente va de –3 a +3. La tabla de área de la


curva y puntaje z indica las fracciones del área total debajo de la curva normal, halladas entre la
media y las órdenes elevadas a distintas distancias desde la media.

El área total debajo de la curva se toma arbitrariamente como 10.000 porque así es más fácil calcular
fracciones del área total.
Las medidas de variabilidad incluyen ciertas fracciones constantes del área total de la curva normal: -
entre X y +/- 1 se halla el 68,26% de la distribución

-entre X y +/- 2 se halla el 95,44% de la distribución

-entre X y +/- 3 se halla el 99,74% de la distribución.

Aplicaciones en educación de la curva normal:

Una de las aplicaciones es convertir las puntuaciones directas o puntajes brutos en puntuaciones
típicas o estándar. Con la desviación estándar nosotros obtenemos la distancia de variabilidad de un
puntaje promedio en relación con la media de una distribución, pero no nos dice nada acerca de cual
es el punto dentro de la distribución. Para poder llegar a expresar cualquier puntuación de ésta
manera se deben transformar o convertir las puntuaciones directas en puntuaciones típicas. Estas
puntuaciones típicas son muy importantes porque permiten reducir puntuaciones de diferentes
distribuciones en unidades de medida comunes.

La distribución normal sirve para descubrir la frecuencia de ocurrencia de muchos hechos variables,
con un grado relativamente alto de exactitud. Todos los factores n se consideran como similares
independientes e iguales en fuerza, y la probabilidad de que cada uno esté presente o ausente en la
misma.

Para determinar el porcentaje de casos en una distribución normal dentro de determinados límites.

Encontrar los límites, dentro de toda distribución normal, que incluyen un determinado porcentaje
de caos.

Determinar la dificultad relativa de preguntas de test, problemas y otros ítems.

Dividir un grupo dado en subgrupos según la capacidad cuando la característica está distribuida
normalmente.

Hay infinitas curvas normales, cada una se define por el valor que tenga la X y el S. La curva
normal estándar se caracteriza porque su media vale 0 y el desvío estándar 1

Asimetría: toda relación de probabilidad es posible mientras P + Q = 100. Pero las distribuciones
obtenidas del desarrollo de (P + Q)1 cuando P no es igual a Q son sesgadas o asimétricas y no
normales. Se dice que una distribución es asimétrica o sesgadas si la media o la mediana caen en
distintos puntos de la distribución y el equilibrio o centro de gravedad está desplazado a uno u otro
lado.

-Sesgadas negativamente o a la izquierda: cuando lo puntajes se acumulan hacia el extremo alto de


la escala (derecho) y se extienden más suavemente hacia el extremo bajo (izquierdo). La media se
halla a la izquierda de la mediana.

-Sesgadas positivamente o a la derecha: cuando los puntajes se acumulan hacia el extremo bajo de la
escala (izquierdo) y se extiende hacia la alta gradualmente (derecha). La media se halla hacia la
derecha de la mediana.

Fórmula en términos de percentiles: As = (P90 + P10) – P50


2

Formula: G = 3. (X – Md)

-si el resultado es 0, es simétrica (porque X y Md son iguales)

-si el signo es positivo, es asimétrica positiva

-si el signo es negativo, es asimétrica negativa

-sesgo: es el grado de asimetría o falta de asimetría de una distribución

Causas:

La selección: la selección producirá asimetría y curtosis en las distribuciones, aunque el test esté
construido adecuadamente y se administre con todo esmero. Los puntajes logrados por grupos
reducidos y homogéneos probablemente darán distribuciones angostas y leptocúrticas, los puntajes
de grupos grandes y heterogéneos mostrarán más bien una forma ancha y platicúrtica

Test inadecuados o mal construidos: si un test es demasiado fácil, los puntajes se acumularán en el
extremo alto de la escala, mientras que si es muy difícil se amontonarán en el extremo bajo. La
asimetría también puede producirse debido a ítems ambiguos o mal hechos u otras fallas técnicas.

Distribuciones no normales: puede haber una falta de normalidad en las características que se está
midiendo, esto ocurrirá cuando algunos de los factores hipotéticos que determinan la intensidad de
un rasgo sean dominantes o prevalezcan sobre los demás, estando presentes, con mayor frecuencia
de lo que permitiría el azar.

Errores de construcción y administración de los test: ej.: la diferencia en la magnitud de las unidades
en que se expresan los resultados del test. Si los items son muy fáciles al principio y difíciles después,
se aumenta un extremo de la escala y disminuye otro.

Curtosis: alude a la elevación o aplanamiento de una distribución de frecuencias comparada con la


normal (forma de la curva).

-Una distribución de frecuencias más puntiaguda que la normal se llama leptocúrtica;

-Una más aplastada se llama plasticúrtica;

-La normal se llama mesocúrtica.

Fórmula: Cu = Q .

P90 – P10

Si Cu > 0,263 ® la distribución es platicúrtica

Si Cu < 0,263 ® la distribución es leptocúrtica

Si Cu = 0,263 ® la distribución es mesocúrtica (distribución normal)


Transformaciones de los puntajes de los test: las puntuaciones obtenidas en los test son los puntajes
originales: Existen 2 tipos de transformaciones que se pueden hacer con los puntajes:

-Transformaciones lineales: se usa utilizando una ecuación de 1º grado, la cual tiene todos los
términos con exponente igual a 1. Cuando se las representa gráficamente se obtiene una línea recta.
Hacer esta transformación implica 2 pasos:

Un corrimiento del origen al lugar de la X

Un cambio de la unidad de medida

Ecuación de 1º grado: y = a + bx

Entre las transformaciones lineales las más conocidas son los puntajes z (z). Son transformaciones
que se pueden hacer a los valores o puntuaciones obtenidas con el propósito de analizar su distancia
respecto a la media aritmética, en unidades de desvío estándar.

Fórmula: z = X – X

Las puntuaciones z son el método más comúnmente utilizado para estandarizar la escala de una
variable medida en un nivel de intervalos iguales, o por cocientes o razones.

Estandarizar los valores permite comparar puntuaciones de dos distribuciones diferentes. La


distribución de puntajes z no cambia la distribución original, pero modifica las unidades originales a
unidades de desvío estándar. Las puntuaciones z sirven también para comparar mediciones de
distintas pruebas o escalas aplicadas a los mismos sujetos. Los valores obtenidos en cada escala se
transforman en puntuaciones z y se comparan.

También sirven para analizar distancias entre puntuaciones de una misma distribución y áreas, de la
curva que abarcan estas distancias.

Tienen el inconveniente de que los puntajes a la izquierda de la media tienen signos negativos y
deben expresarse en decimales.

Para obviar esto muchas veces se usan los puntajes z derivados (Z), éstos fijan una media aritmética
arbitraria que suele ser el valor 50 y una desviación estándar arbitraria, que suele ser 10. En nuestras
transformaciones existe la ventaja de no tener valores negativos y podemos despreciar los decimales
porque represen una cantidad pequeña.

También los z derivados son un transformación lineal de modo que no deforman la distribución
original de los puntajes.

Fórmula: Z = Xa + Sa (X – X) Xa: fijado arbitrariamente

S Sa: fijado arbitrariamente

-Transformaciones no lineales: emplean ecuaciones de 2º grado, que tienen por lo menos algún
miembro afectado por un exponente distinto a la unidad. Su representación gráfica da una curva.
Ecuación de 2º grado: y = ax2 + bx + c

Los percentiles correspondiente a un individuo indica el porcentaje de sujetos que en relación a la


característica estudiada, recibe un puntaje inferior a éste.

Ventajas: permite la comparación entre distintas pruebas; son fáciles de entender por todos

Desventajas: al ser una transformación no lineal cambia la distribución de los puntajes originales.

Unidad 7: Correlación y Regresión

La estadística que estudia las relaciones entre 2 variables cuales quiera, se llama estadística
bivariada. Se trata de una estadística de 2 variables que se estudian a la vez.

Cuando la relación es de naturaleza cuantitativa, la manera de medir el grado de relación es a través


de la correlación.

Correlación: es la apreciación de las variaciones de los valores de una variable en relación con otra
variación de los valores de otra variable. Es la covariación concomitante de dos variables, es la
medición del grado en el que pares de valores relacionados en dos variables tienden a cambiar
juntos. También proporciona una medición del grado en que pueden predecirse los valores en una
variable, a partir de los valores de la otra variable.

Dos variables están relacionadas cuando un cambio en una de ellas va acompañado de un cambio en
la otra. Un relación es lineal cuando x cambia e y cambia el doble. Una relación es no lineal cuando a
una determinada variación en x corresponden variaciones en y de diferentes valores.

El cálculo de la correlación entre 2 variables es una medida descriptiva. Medimos la cercanía de 2


variables.

Cuando se establece que hay correlación lo que quiere decir es que el coeficiente calculado es lo
bastante fuerte para no considerarse como mera influencia del azar.

La naturaleza de la correlación puede ser:

Positiva: conforme una variable aumenta (x), también lo hará la otra (y)

Negativa: cuando una variable aumenta (x), la otra disminuye (y)

Nula: no hay correlación

-Coeficiente de correlación: permite comparar la variación concomitante de dos variables. Es la


cifra que expresa el grado de relación que hay entre dos variables. No es posible obtener un
coeficiente menor de –1 o mayor de +1. La relación se expresa en una escala que va de un rango de –
1 (negativa perfecta) a 0 (no hay relación), a +1 (positiva perfecta). UN índice de correlación indica 3
cosas fundamentales:
La existencia o no de una relación entre las variables

La dirección de esta correlación (positiva o negativa)

El grado de esta relación (cuyo valor máximo es +/-1 y cuyo valor mínimo es 0, no correlación).

El signo, indica la dirección de la correlación y el valor numérico, la magnitud o grado de


correlación.

-Cálculos principales para la correlación:

Coeficiente de correlación de Pearson (r): (para variables continuas y corresponde a pruebas


paramétricas) muestra el grado de correlación en una escala de +1 a –1 entre dos variables de nivel
de intervalos iguales o de cocientes donde cada valor en una variable tiene un compañero en el otro
conjunto. Trata de explicar el grado en que se distribuye la variación de una variable en relación al
grado en que se distribuye la variación de otra variable. Mientras mayor sea el valor de r más positiva
será la correlación; mientras menor sea el valor de r (debajo de 0) más negativa será la correlación;
mientras más cerca de 0, menor será la correlación. Se calcula r a través de un método que se llama
método de producto de los momentos (los desvíos a la media son momentos matemáticos).

Fórmula: r = å (x – X) . (y – Y) Numerador: puede ser positivo o negativo

N . Sx . Sy Denominador: siempre positivo

Coeficiente de correlación Rho de Spearman : es un coeficiente de asociación. Muestra el grado de


correlación entre dos grupos de rangos igualados en una escala de +1 (positivo perfecto) a –1
(negativo perfecto). Para variables cuantitativas discretas que pertenecen al nivel ordinal. Se
considera la suma de los cuadrados de las diferencias entre los rangos apareados. Sirve para
determinar si hay o no asociación entre variables medidas en escala ordinal.

Formula: =1– 6 . å d2 .

N (N+1) . (N-1)

Desventaja: es una prueba no paramétrica y por lo tanto sufre todas las debilidades asociadas a estas
pruebas.

Ventaja: es sencilla de calcular y puede utilizarse con datos que no sean de intervalos.

Coeficiente Q de Yule (Q): mide la asociación de dos atributos dicotómicos, es decir, cada una de las
variables tiene 2 características. Se utiliza para variables de nivel nominal, mediante una tabla de
doble entrada. A cada frecuencia le asigno una letra.

Formula: Q = AD – BC

AD + BC

-Diagrama de dispersión: se colocan los pares de valores de las variables x e y, formando una Nube
de puntos: los puntos cuanto mayor forman una recta, mayor sera la correlación; cuando lo puntos
del gráfico se esparcen por todos lados, sin demostrar una tendencia la correlación es muy baja o
nula.
El punto de intersección entre X e Y, llamado varicentro, divide el diagrama en cuatro cuadrantes:

Cuadrante II y IV: correlación negativa

Cuadrante I y III: correlación positiva

Cuando esta por los 4: correlación baja o nula

Regresión: la correlación se complementa con una técnica de la estadística inferencia: la regresión.


Ésta nos permite pasar de la conclusión de la muestra a la generalización de la población (a partir del
análisis de un conjunto de datos extraigo valores válidos para una población). Permite la
generalización poblacional (objetivo de la estadística inferencial, también tiene como objetivo la
prueba de hipótesis).

Las ecuaciones de regresión predictiva se basan en la ecuación de la recta:

y = a + bx x = a + by a: ordenada de origen (independiente)

b: pendiente (dependiente)

a = (Y0 – Y1) Cuando la recta es paralela al eje vertical, a no esta definida, en este

(X0 – X1) caso a un mismo valor de x corresponden infinitos valores de y.

Para determinar el valor de b se calcula 1º a, luego se sustituye el valor de a y los valores de x e y


correspondientes a un par ordenado

Recta de Regresión: toda correlación entre 2 variables supone la existencia de dos líneas de
regresión. Se trata de ajustar una recta dentro de una nueve de puntos que pase por la mayor
cantidad de puntos. La recta tiene que ser la que mejor se ajuste y la distancia de los puntos a la
recta tiene que ser las menores. Para lograr esto hay que calcular a y b:

a = n å xy – (åx) . (åy) . y b = (åx2) . (åy) – (åxy). (åx)

n å x2 – (åx) 2 n å x2 – (åx) 2

Esta ecuación nos dice:

Cual es la relación entre las variables x e y

Que la relación es lineal y nos da su forma precisa

El sentido de la relación por medio del signo de a

Nos permite calcular o estimar el valor y que corresponde a un valor x cualquiera de la variable
independiente. Esta estimación (a menos que la relación sea perfecta) adolecerá de un cierto error.
La ecuación no nos dará exactamente el valor y que corresponda a un valor x sino uno que se le
aproxima, por eso se escribe y’ en la ecuación de regresión, que quiere decir valor de y estimado o
calculado.
Hay 2 rectas de regresión: Y en X, X en Y. Una siendo x independiente e y dependiente; y otra siendo
e independiente y x dependiente. Cuando se grafican las 2 rectas, las correlaciones de ambas se
determinan por el ángulo entre las 2 rectas, si este ángulo vale 0 la correlación es +/-1

Cuando se utilizan las rectas de regresión se está ante la estadística inferencia, porque se está
haciendo una predicción.

La recta de regresión también se la llama la recta de los cuadrados mínimos, porque la suma de las
distancias de cada punto a la recta teórica, elevados al cuadrado, será un valor mínimo (å Dx2 =
mínimo).

La regresión sirve para la estimación de parámetros y para la prueba de hipótesis.

Regresión lineal: es un modelo matemático para estimar el efecto de una variable sobre la otra.

Las rectas de la regresión se trazan en función de las ecuaciones predictivas:

Fórmulas: Yx = r . Sy . (X – X) + Y Xy = r . Sx . (X – X) + X

Sx Sy

Ecuación predictiva: las predicciones son para cualquier sujeto de la misma población. Para ello se
supone que:

La muestra se la población ha sido tomada al azar

Las variables se distribuyen normalmente

Es posible determinar el error que se puede cometer en la predicción realizada, para ello se debe
determinar el error estándar de la estimación predictiva.

Si conocemos el desvío de la variable independiente y el coeficiente de correlación podemos calcular


el error estándar de la estimación predictiva.

Fórmulas: s(est y) = sy ¶1 – r2 s(est x) = sx ¶1 – r2

Con el error estándar conocido es posible determinar el camino crítico (son 2 líneas de puntos
alrededor de la recta de regresión), éste es una predicción que se establece a partir de la eficiencia
predictiva. Se obtiene sumándole y restándole el error estándar predictivo a la recta de regresión

Relación entre correlación y regresión: si todos los puntos de un diagrama de dispersión caen sobre
una recta las dos rectas de regresión coinciden y tenemos el caso en que la predicción es perfecta.

Variancia: es la descomposición de la variancia total en partes.

La distancia que hay entre un punto observado (Yo) y la media se llama variancia total, ésta se divide
en 2:

variancia no explicada: distancia que hay entre un punto observado y uno calculado según la (recta
de regresión)

variancia explicada: distancia que hay entre un punto observado y la media


-La diferencia entre los valores de los Yo y la Y, elevados al cuadrado, sumados y divididos por N, dan
como resultado la variancia total y que está en función de la Y y que se puede medir:

Fórmula: syt2 = å (Yo – Y) 2

-La diferencia entre los Yc y los Y elevados al cuadrado, sumados y divididos por N, dan la variancia
explicada de Y

Fórmula: syx2 = å (Yc – Y) 2

-La diferencia entre los Yo y los Yc elevados al cuadrado sumados y divididos por N dan la variacia no
explicada de Y.

Fórmula: Sy2 = å (Yo – Yc) 2

-La desviación total de los puntajes observados puede descomponerse en la suma de estas 2
variancias: la explicada y la no explicada.

Fórmula: syt2 = sx2 + Sy2

Coeficiente de determinación (r2): es la proporción de la variancia total de Y que se puede predecir


conociendo X.

r: indica la fuerza de la relación.

Coeficiente de no determinación (k2): es la parte de la variancia que no esta predicha por la recta de
regresión.

1 = k2 + r2

*Hay 3 índices que permiten interpretar el coeficiente de correlación:

-Coeficiente de alineación (k): indica el grado de falta de relación, cuanto hay de no correlación,
marca la independencia entre los dos fenómenos. Se complementa con la R de Pearson.

Fórmula: k = ¶ 1 – r2

-Indice de eficiencia predictiva (E): se define como el porcentaje de la reducción del error de
predicción por el hecho de conocer la correlación que existe entre las dos variables. Indica el margen
de acierto.

Formula: E = (1 – k) . 100

E = (1 - ¶ 1 – r2) .100
-Indice de determinación (r2): es la proporción de la variancia total de Y que se puede predecir
conociendo X.

Anova: (análisis de variancia) es un conjunto de procedimientos. Son métodos para probar la


significación cuando se usan más de dos condiciones. Incluye comparar la varianza de las medias de
la muestra (variación entre grupos) con la varianza intergrupos. Hace una comparación directa entre
la cantidad en que varían las medidas de las muestras y la cantidad en la que varía la muestra
alrededor de su propia media. Se utiliza en niveles de medición de intervalos iguales y por cocientes.

Hay 3 tipos de diseños:

no relacionado: entre grupos / sujetos

relacionado: medidas repetidas, intragrupos / sujetos

mixto: entre e intra variables de grupo

Unidad 8: Análisis paramétricos y no paramétricos

Parámetros: valores estadísticos que se obtienen estudiando poblaciones completas (media,


desviación estándar)

Estadística no paramétrica: en ésta estadística no se puede establecer un parámetro, es decir, no se


puede establecer una medida de la población pues no se conoce el n de la misma. Los análisis no
paramétricos requieren de más datos para alcanzar el mismo poder que las paramétricas; aceptan
distribuciones no normales, se pueden utilizar datos correspondientes a niveles de medición nominal
u ordinal. Las variables deben ser categorías, los datos agrupados por intervalos o razón deben ser
resumidos a categorías discretas.

-Concepto de independencia: es lo contrario de asociación, es la nulidad de la asociación. No hay


relación entre dos atributos A y B.

-Concepto de asociación: (entre escalas nominales) trata de determinar en forma objetiva la


ubicación de la distribución en la correlación que va desde la asociación perfecta entre dos variables
hasta la disposición alternativa de las categorías de ambas variables debido únicamente al azar

Las pruebas estadísticas no paramétricas más usadas son: x2 ; coeficiente de correlación e


independencia por tabulaciones cruzadas; coeficientes de asociación por rangos ordenados de
Spearman y Rendall.

-Prueba de Chi Cuadrada (x2): es un coeficiente de asociación. Permite decidir si existe relación entre
2 variables medidas en escala nominal u ordinal. Evalúa la relación entre 2 variables. Parte del
supuesto de la no relación entre variables (dicotomía).

Es un modelo de distribución probabilístico, tiene que ver con la teoría de la decisión estadística y
la prueba de hipótesis.
Proporción que incluye términos teóricos y términos empíricos o fácticos (hipótesis, se trabaja con 2
tipos de hipótesis: nula y alternativa). La hipótesis da un intento de explicación de los hechos, sirve
como principio organizador, es una buena fuente de metodología.

En la prueba de x2 no se necesita asegurarse de que los datos de la distribución provengan de


poblaciones que se distribuyen normalmente. Aunque x2 no requiere de la distribución normal de los
datos, el uso apropiado de esta prueba tiene algunos límites:

los casos o sujetos deben ser seleccionados al azar y de forma independiente

el tamaño de las muestras deben ser razonablemente grande

las categorías deben ser simultáneamente exclusivas y exhaustivas. Es decir, ninguna observación
puede incluirse datos fuera de la tabla

solamente son adecuados los datos nominales

Tiene 2 usos fundamentales:

x2 como prueba de bondad de adaptación: la prueba de x2 puede servir para relacionar las
frecuencias observadas con las esperadas teóricamente según otro modelo. Si tiene margen de error
se utiliza la corrección de Yates donde se reduce el valor de O – E medio punto antes de elevarlo al
cuadrado.

x2 como prueba de independencia de los atributos: dados 2 atributos o variables cualitativas se


puede comprobar si existe entre ellos total independencia o si es probable que estén asociados. En el
1º caso no se puede rechazar la hipótesis nula, en el 2º si

La x2 proviene de una distribución muestral y los resultados obtenidos en la muestra están


identificados por los grados de libertad (cantidad de valores de la variable que tenemos la libertad
para cambiar, cada elección libre corresponde a un grado de libertad LG = (columnas-1).(hileras-1).
Obtenidos los grados de libertad y eligiendo el nivel de confianza a utilizar por medio de la
distribución de x2 observamos si el valor calculado de x2 es igual o superior al de la tabla, decimos si
las variables están relacionadas, caso contrario decimos que no lo es para el nivel de significación
dado.

Formula de x2calculada: x2 = å (O – E) 2 E: frecuencia esperada

E O: frecuencia observada

Ho = O – E = 0

La teoría de Laplace sirve para aplicar la prueba del x2.

Para calcular la frecuencia esperada (E) de cada celda se utiliza:

Formula: E = Total columnas . Total hileras

n
-Si el x2 calculado es menor que el x2 teórico aceptamos la Ho.

-Cuando el x2 calculado es mayor que el x2 teórico no aceptamos la Ho.

Para comparar los valores de x2 calculados con la formula con los valores de x2 teórico se utiliza la
tabla de x2 específica.

La tabla tiene arriba los valores de significación y al costado los grados de libertad. Hay un valor de x2
para cada valor de significación y para cada grado de libertado

Hipótesis nula H0: representa un punto de vista o creencia generalmente aceptado acerca de una
cuestión en un momento dado. Se formula con el propósito expreso de rechazarla.

Hipótesis alternativa Hi: se opone a lo comúnmente aceptado acerca de una cuestión y refleja la
creencia o esperanza del investigador quien desea mejorar el conocimiento que se tiene del
fenómeno en estudio. La Hi expresa por lo general aquella concepción del fenómeno que el
investigador querría ver demostrada mientras que la hipótesis nula contraía la esperanza del
investigador. La hipótesis se refiere a una población ya que estamos efectuando afirmaciones sobre
valores poblacionales, o paramétricos.

Hipótesis exactas o inexactas: las hipótesis son exactas cuando especifican un valor determinado
para un parámetro. La Ho siempre es exacta. La Hi puede ser exacta e inexacta, si propusiera un valor
determinado sería exacta.

Hipótesis alternativas unidireccionales y bidireccionales: La Hi es unidireccional cuando la dirección


de la diferencia se adelanta. Es bidireccional cuando no adelanta la dirección a la diferencia (puede
ser de una forma o de otra. Ej: X>180 o X<180). Necesitamos conocer cual sería la distribución de
muestreo del estadístico que observamos en la muestra si fuera cierta la Ho.

Pasos en la realización de una prueba de hipótesis:

Formulación de la hipótesis, primeramente se realiza en términos verbales

Formulación de la hipótesis en términos estadísticos

Planteo de la Hi como uni o bidireccional: cuando se conoce poco del fenómeno en estudio, es
frecuente que sólo pueda conjeturarse la existencia de una diferencia , o un efecto, o una relación,
sin que sea posible precisar el sentido de la diferencia o la relación o la dirección del efecto.

Elección de la prueba de uno o dos extremos. Cuando la Hi es bidireccional, la prueba será de 2


extremos (la zona de rechazo de Ho se subdivide en 2 subzonas iguales y cada subzona ocupa un
extremo de la curva de la distribución de muestreo, hay 2 puntos críticos). Si la Hi es unidireccional
la prueba será de un extremo (la zona de rechazo de Ho no está dividida y se ubica, toda en un
extremo de la curva, hay un solo punto crítico)

Elección de la prueba estadística que se realizará: la prueba de una hipótesis sobre la media
paramétrica

Elección del nivel de significación: elección entre valores de 05 y 01. El valor de a depende de los
valores críticos que definen la zona de aceptación y de rechazo de Ho. Si definimos esta zona con los
resultados experimentales a la vista, podemos ser inducidos a hacerlo de tal modo que se cumplan
nuestras expectativas a favor o en contra de las hipótesis cualquiera sea el resultado experimental.

Determinación de los puntos críticos: depende de si la prueba es de uno o dos extremos, del valor de
a, del modelo matemático que describe la distribución de muestreo de los resultados del
experimento bajo Ho.

Observación y cálculo de los resultados muestrales

Determinación de la zona en que se encuentra el resultado observado

Definición a favor o en contra de Ho.

Nivel de significación: es la probabilidad de cometer un error. Tipos de error:

-tipo I (a): rechazar la hipótesis nula que en realidad es verdadera y aceptar la H, que es falsa. La
probabilidad de cometer un error de tipo I , es la probabilidad de observar un resultado en la zona de
rechazo de la Ho, siendo ésta verdadera. Esta probabilidad se designa como nivel de significación y
se simboliza con la letra griega a. Este tipo de error lo fija el investigador.

-tipo II (b): acepta la Ho que es falsa y rechazar la H, que es verdadera.

Cuanto menor probabilidad de cometer un tipo de error, mayor probabilidad de cometer un error de
otro tipo.

Al probar una hipótesis, la mayor probabilidad que se está dispuesto a arriesgar al cometer un error,
es el nivel de significación que se usa. Suele ser 5%, 1%.

Los errores en la prueba de hipótesis se pueden ver a través de la zona de aceptación (conjunto de
resultados posibles de un experimento que tienen una relativamente alta probabilidad de verificar si
es cierta la hipótesis nula) y la zona de rechazo (conjunto de resultados de un experimento que tiene
escasa probabilidad de verificarse si fuera cierta la hipótesis nula.)

Puntos críticos: las zonas de aceptación y rechazo de la Ho, están separadas por un valor que
llamamos punto crítico.

Aplicaciones de x2: existen numerosas aplicaciones. La prueba de la mediana es una de ellas. Muchas
veces es necesario conocer si 2 muestras difieren o no en cuanto a su tendencia central. Cuando los
datos corresponden al menos a una escala intervalar, se realiza una prueba de diferencias entre
medianas. Sin embargo, no siempre contamos con mediciones de esos niveles. Si las muestras son
independientes y contamos por lo menos con una medición ordinal, podemos someter a prueba la
hipótesis que las muestras proviene de la misma población en lo que se refiere a tendencia central,
utilizando la prueba de la mediana. La Ho postula que la mediana de una muestra es igual a la de la
otra. El procedimiento consiste en calcular la mediana de las dos muestras combinadas y luego
resumir los datos originales en una tabla de 2x2, consignando para cada muestra el número de
observaciones que están respectivamente por encima y por debajo de la mediana combinada
calculada para el grupo total. Si los 2 grupos presentarán exactamente la misma mediana y no
hubiera ningún error de muestreo, se esperaría que esta distribución de las observaciones fuera
proporcionalmente igual para ambos grupos
Ejemplo:

Muestra1

Muestra 2

Total

Por encima de Mdc

100

90

190

Por debajo de Mdc

100

90

190

Total

200

180

380

Luego se calcula

Teoría de la Decisión: algunos autores dicen que la estadística es una conjunto de métodos para
tomar decisiones inteligentes frente a la incertidumbre. En las ciencias sociales realizamos
investigaciones para determinar la aceptabilidad de las hipótesis que derivamos de una teoría.
Después de seleccionar ciertas hipótesis que consideramos importantes para una teoría
determinada, recolectamos los datos empíricos que han de aportar información para la aceptación
de dicha hipótesis. Nuestras decisiones sobre el significado de los daos pueden conducirnos a
retener, revisar o rechazar la hipótesis y la teoría de la cual procedía para llevar adelante este
procedimiento, es decir, para tomar una decisión se necesita objetividad para aceptar o rechazar una
hipótesis.

Prueba de hipótesis: se da a través de la prueba de chi cuadrada (x2). Para la confirmación de una
hipótesis se deben seguir los siguientes pasos:
Se realizan investigaciones para determinar la aceptabilidad de la hipótesis;

Se recolectan datos empíricos que avalen dicha hipótesis;

Objetividad para tomar una decisión

Los errores en la prueba de hipótesis se pueden ver a través de la zona de aceptación es el conjunto
de resultados posibles de un experimento que tienen una relativamente alta probabilidad de verificar
si es cierta la hipótesis nula; y la zona de rechazo es el conjunto de resultados de un experimento que
tiene escasa probabilidad de verificarse si fuera cierta la hipótesis nula.

-Grado de asociación: miden el grado o fuerza de la relación. Podemos encontrar: El coeficiente C de


Pearson cuya formula es:

C= x2 .

¶ x2 – y

El coeficiente C es igual a 0 cuando las variables son independientes entre si, en cambio, el límite
superior de este coeficiente depende del número de hileras y columnas, pero es siempre menor que
la unidad. Esto dificulta en alguna medida la interpretación de este coeficiente, pero ella siempre es
válida cuando se comparan tablas de igual tamaño. Por otro lado, se conoce cual es el valor máximo
que el coeficiente puede tomar en una tabla de un determinado tamaño (puede consultarse en
cualquier libro de estadística)

El coeficiente C de Pearson tiene, una ventaja con respecto al coeficiente Q de Kendall, puede
calcularse en tablas de cualquier tamaño, mientras que el 2º sólo puede calcularse en tablas de 2x2.

También tenemos el coeficiente V de Cramer cuya fórmula es la siguiente:

V= x2 . El término “Min (h-1 . c-1)” alude al número h-1 o

¶ Min (h-1 . c-1)N c-1, el que sea menor de los dos

Este coeficiente puede aplicarse en tablas de cualquier tamaño y alcanza un máximo de 1. Cuanto
mayor el valor del coeficiente V de Cramer más fuerte es la asociación entre las variables en estudio

Ejemplo del empleo de x2

Relación o asociación entre el trabajo de las madres y el rendimiento escolar de los niños. Muestra
compuesta por 114 niños de 9 a 10 años de distintas escalas sociales.

rendimiento escolar ¿madre trabaja?

Si
NO

TOTAL

Bueno

37 E:37,82

51 E:50,17

88

Regular

12 E:11,17

14 E:14,82

26

TOTAL

49

65

114 (n)

Averiguar si existe asociación entre el hecho de que la madre trabaje y el rendimiento escolar del
hijo.

La Ho dirá: no existe asociación entre el rendimiento escolar del niño y el echo de que su madre
trabaje. (es decir, que los atributos son independientes).

La Hi dirá: si hay relación.

-1º calculamos E para cada una de las celdas

E = Total columna . Total hilera

-Para cada celda tendremos un E y un O

-2º calculamos x2 calculada con la fórmula:

x2 = å (O – E) 2 E: frecuencia esperada

E O: frecuencia observada

Ho = O – E = 0
x2 = (37 – 37,82) 2 + (51 – 50,17) 2 + (12 – 11,17) 2 + (14 – 14,82) 2 = 0,13

37,82 50,17 11,17 14,82

-3º vemos el valor teórico de x2 en la tabla:

-buscamos GL:

GL = (C – 1) . (H – 1)

(2 – 1) . (2 – 1) = 1

-Nivel de significación = 5%

-Unimos ambos valores en la tabla y el valor teórico es igual a 3,84

-4º comparamos el valor calculado, con el valor teórico.

-Como el valor calculado (0,13) es menor que el valor teórico (3,84), aceptamos la Ho, y los
atributos son independientes.

Unidad 9: Muestreo

Población: conjunto total de elementos que constituyen un área de interés analítico. Lo que
constituye la población total está delimitado por problemáticas de tipo teórico. Los elementos que
constituyen una población pueden ser individuos humanos, animales, naciones, edificios, etc.

Los valores estadísticos que se obtienen estudiando poblaciones completas se llaman parámetros
(media, desviación estándar), éstos se representan con letras del alfabeto griego.

El relevamiento total de una población se denomina censo

-Estimación de parámetros: los parámetros son valores poblacionales fijos representados con
letras griegas que caracterizan una población (media, variancia, desvío estándar). Los estimadores
son los valores que estiman los parámetros poblacionales a partir de una muestra (X, S2, S)

La estimación es el proceso mediante el cual se obtiene estimadores que se aproximan al valor


del parámetro poblacional, partiendo de la información proveniente de una muestra. Cuando se
hacen estas estimaciones, se supone que la media de la población es la misma que la media de la
muestra

Muestra: subconjunto del conjunto total que es la población. Debe tener una estructura análoga a la
de la población. Galtung dice que una muestra debe satisfacer 2 condiciones:

En ella debe ser posible poner a prueba hipótesis sustantivas. Esto es proporciones acerca de
relaciones entre variables.
Debe ser posible poner a prueba hipótesis de generalización, es decir, de la muestra a la población.
Esto constituye la inferencia

Los valores estadísticos que se obtienen de las muestras se llaman estadísticos y se representan con
letras del alfabeto latino.

La distribución de muestreo es la distribución de una variable aleatoria (variable cuyos valores o


categorías resultan de un experimento aleatorio, cuyos resultados dependen del azar o son
consecuencias del azar), correspondiente a un experimento que consiste en extraer muestras al azar
de una población y cuyos valores son estadísticos (índices calculados en muestras).

La distribución de una variable aleatoria numéricamente valorada consiste en la especificación de las


probabilidades existentes de que se verifiquen cada uno de sus valores, si se realiza efectivamente el
experimento; La distribución de una variable aleatoria se puede describir del mismo modo como se
ha aprendido a hacerlo en estadística descriptiva con respecto a cualquier variable; La distribución de
una variable aleatoria se conoce a priori; La distribución de una variable aleatoria nos informa cuales
son todos los resultados posibles de un experimento aleatorio y la probabilidad de cada uno de estos
resultados. Esta distribución se describe en cuanto a su forma, su tendencia central y su variabilidad.

La distribución de muestreo de la media (X) es una distribución teórica o ideal y conocida y debe
distinguirse de la distribución paramétrica o poblacional de una variable que es una distribución real
a menudo desconocida y alguna de sus características procuramos estimar

Las ventajas de la utilización de las muestras son que la información obtenida suele ser de mejor
calidad que trabajando con grupos muy grandes. Se necesitan menos colaboradores.

Tipos de muestras:

-Muestras predispuestas: son aquellas que han sido seleccionadas de manera tal que la
comprobación o la refutación de las hipótesis pasa a ser el resultado de procedimientos de
muestreo.

-Muestras no predispuestas: son aquellas cuya probabilidad de extracción es conocida. Hay dos
muestras de este tipo: muestras cuya probabilidad de ser extraídas es 0 o 1 (finalistas) o muestras
cuya probabilidad de ser extraídas es diferente de 0 y de 1 (probabilísticas)

El trabajo sobre muestras se llama muestreo.

-Muestreo probabilístico: cumplen con el requisito de reconocer el error y nos permiten la


generalización y son las más rigurosas en cuanto a selección. Todos los elementos que componen el
universo tienen una probabilidad conocida de ser incluidos en la muestra Hay varios tipos:

-Azar simple: aquellas muestras en las que cada elemento de la población tiene la misma
probabilidad de estar incluido en la muestra elegida y también toda combinación de elementos tiene
la misma probabilidad.

Procedimientos básicos:

Hacer una lista completa del universo


Asignar un número a cada individuo del universo

A través de una tabla de números aleatorios o procedimiento similar seleccionar un número de


individuos que van a constituir la muestra.

Ventajas:

Igual probabilidad de inclusión de todos los individuos

Permitir la generalización

Proporciona base para calcular el grado de disparidad entre las medidas de la muestra y del universo.

Económicas, al no tomar a todo el universo.

Desventajas:

No provee un número suficiente de casos de grupos especiales

Puede haber distorsiones en cuanto a la representatividad

Alto costo monetario y de tiempo.

-Sistemática: consiste en elegir los individuos de la muestra a intervalos sistemáticos del listado, es
decir a intervalos iguales a partir de un primer caso elegido según el método de los número al azar.
Este método es más conveniente que el azar simple cuando el listado es muy largo.

Procedimientos básicos:

Hacer una lista completa del universo

Seleccionar el 1º individuo a través de un método aleatorio

Seleccionar cada décimo individuo a partir del 1º

Ventajas:

Igual probabilidad de inclusión de todos los individuos

Permitir la generalización

Proporciona base para calcular el grado de disparidad entre las medidas de la muestra y del universo

Económicas, mayor facilidad de obtener la muestra

Desventajas:

Desde el punto de vista estrictamente estadístico, este tipo no es probabilístico, ya que, si bien una
vez iniciado el muestreo las probabilidades son las mismas para la 1º selección, una vez elegido este
número, la muestra pasa a ser finalista

Alto costo monetario y de tiempo


-Estratificado: es aplicable cuando la población se compone de subgrupos o estratos de distintas
magnitudes, de modo que una muestra representativa ha de contener individuos sacados de cada
categoría o estrato. Los estratos son homogéneos dentro de si y heterogéneos entre sí.

Procedimientos básicos:

Dividir el universo en estratos internamente homogéneos

Seleccionar dentro de cada estrato los individuos de modo aleatorio

Las fracciones de muestra en cada estrato son proporcionales o pueden ser distintas

Ventajas:

Igual probabilidad de inclusión de todos los individuos

Permitir la generalización

Proporciona base para calcular el grado de disparidad entre las medidas de la muestra y del universo

Si las fracciones de los estratos en la muestra son proporcionales: garantiza la representatividad y


elimina los errores entre los estratos.

Si las fracciones de los estratos en la muestra son distintas: posibilita mejor conocimiento de grupos
pequeños en el universo.

Económicas, mayor facilidad de obtener la muestra

Desventajas:

Si las fracciones de los estratos en la muestra son proporcionales: puede no proveer un número
suficiente de casos para estratos pequeños y hay dificultad para determinar estratos homogéneos.

Si las fracciones de los estratos en la muestra son distintas: exige tratamientos estadísticos algo
complejos y hay dificultad para determinar estratos homogéneos.

Costos más altos que en las muestras simples y de conglomerados y alto costo de tiempo.

-Conglomerado: se usa generalmente cuando hay que hacer trabajos que abarcan una superficie
geográfica muy amplia. Se trata de que dentro del conglomerado esté representada la mayor
cantidad posible, por lo que en este tipo de muestreo suele haber mucho error. El objeto de este
método consiste en dividir a la población en sectores llamados conglomerados, cuya característica
fundamental es que las cantidades sean más heterogéneas entre sí dentro de cada conglomerado y
que los conglomerados sean lo más homogéneos posibles.

Procedimientos básicos:

Dividir el universo en diversos grupos

Seleccionar primero que grupo debe constituir la muestra

Dentro de cada grupo seleccionar los individuos de la muestra de modo aleatorio


Ventajas:

Igual probabilidad de inclusión de todos los individuos

Permitir la generalización

Proporciona base para calcular el grado de disparidad entre las medidas de la muestra y del universo

Ahorra dinero sobre todo porque permite la concentración de los entrevistadores en áreas próximas
y ahorra tiempo

Desventajas:

Exige tratamientos estadísticos muy complejos

Hay pérdida de precisión

Pérdida de carácter aleatorio del muestreo

-Muestreo no probabilístico: sirve para tener una primera aproximación para un tema de estudio.
Son las que se llaman muestras para estudios pilotos o se utilizan para diseño exploratorio. El estudio
exploratorio tiene como finalidad la recolección de información. Esta información puede servir para
formular unas hipótesis o para saber si vale la pena seguir con la investigación. En éste no se conoce
el n de la población, por lo tanto no se pueden determinar los errores.

Dentro de la muestra no probabilística hay 3 tipos:

-Muestreo casual: consiste en pararse en un determinado lugar y preguntarle a aquel que pasa
algún tema determinado (encuesta callejera), no puede generalizar. Sirve para reunir información
para uno mismo.

Ventajas:

Exige personal menos entrenado y de costo menor

Desventajas:

Presenta serios obstáculos a la generalización

-Muestreo intencional: se localiza a los que llamamos informantes claves, que son los que saben
acerca de lo que queremos investigar y recogemos información. Recolectar información de muchas
fuentes para poder lograrlo.

Ventajas:

Exige personal menos entrenado y de costo menor

Desventajas:

Presenta serios obstáculos a la generalización


-Muestreo por cuotas: consiste en reunir una serie de investigadores y asignarles una cuota (se le da
a cada uno determinadas características). Cuota: cantidad de casos que tiene que haber de acuerdo a
las características de la investigación.

Ventajas:

Exige personal menos entrenado y de costo menor

Desventajas:

Presenta serios obstáculos a la generalización

-Muestreo para probar hipótesis sustantivas: estas muestras deben ser seleccionadas de manera
tal que contengan el tipo de elementos sobre los cuales hacen referencia las proposiciones en que el
investigador está interesado. El investigador no está tan interesado en la generalización como en la
relación específica entre variables; de manera que quiere garantizar que su muestra contenga
unidades suficientes de un tipo determinado. La muestra debe ser suficientemente heterogénea.

Galtung, dice que el investigador debe responder 3 preguntas: ¿cuántas variables quiere el
investigador analizar simultáneamente?, ¿cuál es el número máximo de valores que desea utilizar
por variables? Y ¿cuál es el valor mínimo por celda que necesita. Por medio de las 2 primeras va a
determinar el tamaño de la matriz de los datos y por medio de la última va a satisfacer los requisitos
referentes a la prueba de hipótesis estadísticas.

Las muestras para probar hipótesis sustantivas son de mucha utilidad y es posible compatibilizar
las exigencias de un muestreo probabilístico, con las exigencias para probar hipótesis sustantivas.

Ventajas

Vinculadas al proceso total de la investigación, ya que obliga al investigador a explicar como hipótesis
y a pensar desde un comienzo en los métodos a utilizar en el análisis.

Desventaja:

Exige conocimiento previo tanto de características poblacionales, cuanto del tipo de análisis que se
va a utilizar. Algunas veces no es posible establecer generalizaciones.

-Definición del tamaño de la muestra: se debe lograr un tamaño de la muestra que se logre un
máximo de precisión, con un tamaño mínimo de muestra. No interesa tanto el tamaño de la muestra
como la ganancia en términos de nivel de significación que el investigador puede obtener
aumentando un número determinado de unidades. Hay 2 maneras:

1º: surge de los métodos estadísticos utilizados para el análisis y comprobación de las hipótesis, para
la determinación del tamaño de la muestra se parte de las diferencias mínimas. Hay que determinar
que nivel de confiabilidad y de significación desea el investigador (existen tablas donde se especifica
para cada nivel de significación el tamaño de la muestra necesario) y hay que conocer los valores
parámetros, cuando no se conocen es posible determinar el tamaño por medio de ciertas diferencias.

Cuando la proporción en la población es p y la proporción en la muestra es x/m, la significación o


nivel de confianza es: x/m – p > z ¶pq/m
Los niveles de significación mayormente utilizados en ciencias sociales son 0,5 y 0,1. La ecuación
original con un nivel de significación de 5% quedaría: x/m – p > 1,96

El error de estimación o error de muestreo es:

Formula: X - m = ? puntos X: media de la muestra y m : media de la población

A mayor tamaño de la muestra, menor posibilidad de error de muestreo.

-El error estándar ( ) de la población es igual al desvío (S) de la muestra sobre la raíz de n.

= S

¶n

Es una estimación del desvío de la población

Ejemplo:

n: ?

riesgo: 5%

m : 80

:9

N: 3000

-No quiero que la diferencia entre X - = 2 pts. (error de muestreo)

n = z2 . 2 = 1,962 . 92 = 78 casos (si tomamos – de 78 casos el error sería

e2 22 demasiado)

-si el riesgo es de 1% = z: 2,58

-si el riesgo es de 5% = z: 1,96

-Estimación de la m (media de la población): para poder estimar la media de la población (m)


debemos especificar un intervalo de confianza dentro del cual podamos afirmar con cierto grado de
confianza que esta la m.

m = X +/- z .

*los valores de z (distribución mermal) se utilizan cuando trabajamos con muestras grandes,
cuando las muestras son chicas (- de 30 casos) se utiliza otro modelo de distribución probabilístico, la
t de Student (t).

Ejemplo

n: 100
X: 20

s: 5

riesgo: 5% ® z: 1,96

: 5 = 0,5

¶100

Formula: m = X +/- z . o m = X +/- t .

m = 20 +/- 1,96 . 0,5

m = 20 + 0,98

m = 20 – 0,98

La m esta entre estos 2 valores

-Importancia del número de casos: cuanto mayor es n, más se aproxima la distribución de


muestreo de las medidas a una distribución normal y cuanto mayor es n, mayor es la probabilidad de
que la media muestral (X) tome un valor próximo al de la media poblacional (m).

Cuanto mayor es la probabilidad de confianza más amplio es el intervalo de confianza y desde el


punto de vista de su precisión, más insatisfactorio.

Aumentando el número de casos se alcanza estimaciones más precisas sin tener que disminuir la
probabilidad de confianza, porque cuando mayor es n, mayor el denominador de la fracción y menor
será el error estándar de la muestra

S-ar putea să vă placă și