Documente Academic
Documente Profesional
Documente Cultură
Antes que nada tengo Material para practicar ejercicios y buenos cuadros conceputales para sacarle
fotocopias! Cualquier cosa pregunten!
Unidad 1
Estadística: es una forma de pensar y tratar cierta problemática que la realidad plantea, de una
manera más elaborada, consistente y exacta que lo que hace el pensamiento ingenuo.
Según Cortada de Cohan, por estadística entendemos los métodos científicos por medio de los cuales
podemos recolectar, organizar, resumir, presentar y analizar datos numéricos, relativo a un conjunto
de individuos u observaciones y que nos permiten extraer conclusiones válidas y ejecutar decisiones
lógicas basadas en dicho análisis.
La estadística se usa para estudiar fenómenos en los que tenemos gran cantidad de observaciones y
cuya aparición se rige por leyes del azar o aleatorias.
El objetivo fundamental es sintetizar la información de manera tal que se pueda tomar decisiones y
disminuir el grado de incertidumbre.
Permite sintetizar y visualizar la información mediante el uso de tablas y gráficos que facilitan la
rápida percepción y aprehensión del fenómeno en estudio.
Tipos de estadísticas:
Medición: asignación de números a objetos o a hechos de acuerdo a ciertas reglas. Una relación de
isomorfismo (equivalencia de formas) entre la estructura lógica del sistema numérico y la estructura
de la naturaleza, que se manifiesta en las propiedades que se miden. Para aplicar el modelo
matemático a la naturaleza hay que tener en cuenta las características de la serie real de los números
que son:
-transitividad
-Ordinal: por orden jerárquico, cuando se presenta la relación de mayor que o menor que se
presenta entre los pares de categorías tenemos una categoría ordinal. Rigen los postulados de
identidad y de orden jerárquico. Están permitidas las transformaciones monotónicas que mantengan
el orden entre las clases. No se sabe la distancia entre una característica y otra. Admite variables
cualitativas y cuantitativas.
-Intervalos iguales: las distancias numéricamente iguales representan distancias iguales
empíricamente en la variable que miden. Tienen unidad de medida común y constante que asigna un
número a todos los pares de objetos del conjunto ordenado. La ausencia (0) de la variable es por
convención. El punto cero de origen y la unidad de medida son arbitrarias. La relación entre
intervalos es independiente de la unidad empleada y del punto de origen. Es la 1ª escala
verdaderamente cuantitativa.
-Por concientes o razones: el punto cero es de origen real, coincide con la nada. Permite todas las
operaciones aritméticas. Sólo es arbitraria la unidad de medida. Permite transformaciones del tipo y
= b.x. Variables cuantitativas continuas.
Unidad 2
Cuando se recolectan los datos a través de encuestas, entrevistas, etc., lo 1º que hay que hacer es
presentarlos de modo sistemático mediante tablas y gráficos; luego se sistematiza la información (se
construye una matriz de datos donde se contienen las unidades de análisis).
Unidad de análisis: la mínima unidad sobre la cual se realiza el análisis. Es un miembro individual de
un grupo de personas, lugares o cosas. Es la expresión o tamaño más pequeño representativo de las
características, conceptos o variables a estudiar.
Variables: es un símbolo que puede asumir distintos valores posibles. Son las características o
propiedades de las entidades a estudiar, es lo que está siendo observado.
-Cuantitativas: -discretas: hay separación total entre un valor y otro. Se pueden contar.
-Activas: sobre las que un investigador puede actuar, ej: nivel de orden
-Asignadas: se pueden controlar por medio de la selección y no pueden ser modificadas, ej: la
edad
-Variables de estímulo
-Variables intermedias
-Variables de respuesta
-Se determinan las categorías o valores de esa variable, que implica agrupar las observaciones en
categorías mutuamente excluyentes.
-Se establece la cantidad de veces que se repiten cada una de las categorías en la variable se
utiliza el método de conteo.
Frecuencia absoluta: surge del conteo. Cuantos casos hay dentro de esa determinada categoría. n:
cantidad de casos.
-Se comparan los datos obtenidos en las distintas categorías o valores entre sí, o con los datos de
otras muestras o grupos lo que permite sacar conclusiones.
-Se obtiene la frecuencia absoluta correspondiente a cada valor. Cuando son pocos los valores de
la variable se utiliza el método de conteo y cuando son muchos su usa el damero.
-Se comparan los datos obtenidos en las distintas categorías o valores entre sí, con los datos de
otras muestras o grupos lo que permite sacar conclusiones.
-Una vez determinadas las circunstancias debemos pensar de que manera se presentan estos
datos para su fácil manipulación.
-Cuando la amplitud de la variable es reducida utilizamos una tabla simple de frecuencias. Cuando
es demasiado extensa agrupamos los valores de la variable en intervalos de clase.
Unidad 3: Presentación de los datos
Construcción de tablas y gráficos pata todos los niveles de medición: la forma de la tabla dependerá
del objetivo de la investigación y la cantidad de variables que analicemos. Tablas simples para una
variable o tablas de doble o triple entrada si fueran más de una.
-Pautas de construcción: deben ser simples y de fácil lectura; título claro y exacto; se mencionará la
fuente de los datos en caso de que éstos no sean originales; cada fila y cada columna debe ser
titulada claramente.
-Cualitativas:
se determinan las categorías o valores de esa variable (que implica agrupar las observaciones en
categorías mutuamente excluyentes);
se establece la cantidad de veces que se repite cada una de las categorías en la variable (se precisa la
frecuencia absoluta, con el método de conteo);
se comparan los datos obtenidos en las distintas categorías o valores entre sí, o con los datos de
otras muestras o grupos, (se sacan conclusiones probabilísticas).
-Proporciones: relación entre los datos de la frecuencia absoluta con el total de casos con el que
estamos trabajando (frecuencia relativa). La suma es igual a 1. Siempre hay que informar sobre el nº
de casos usados.
-Razones: comparación de las frecuencias absolutas obtenidas en una categoría con las obtenidas
en otras categorías del mismo grupo. Puede ser =, > o < a 1.
-Tasas: tipo especial de razón, se usa cuando el denominador es muy alto. Se toman valores de la
misma categoría en tiempos distintos. Se multiplica el numerador por una constante.
-Números índices: miden los cambios de una variable o grupo de variable, respecto al tiempo.
-Representaciones gráficas: es un medio auxiliar cada vez más usado, caracterizado por la
percepción visual. Su objetivo es brindar la información de la manera más expresiva y atractiva. Se
utilizan: gráfico sectorial: es el más usado cuando se quiere mostrar proporciones de una totalidad,
la comparación se realiza con los sectores de un círculo (se torna complicada la interpretación
cuando la cantidad de categorías es numerosa); diagrama de barras: es útil para comparar valores
relativos de algún rasgo que poseen uno o más grupos o también para comparar variables diferentes,
la longitud del rectángulo representa la frecuencia absoluta o porcentual y el ancho se fija
arbitrariamente; pictogramas: se toma un dibujo que representa esquemáticamente un valor
numérico.
-Cuantitativas:
si la amplitud de la variable es demasiado extensa se agrupan los valores en lo que se llama intervalo
de clase.
-Modulo (i): la amplitud de cada intervalo de clase, depende de: la amplitud que abarcan los valores
de las variables y la cantidad de observaciones
-Límites reales: se utiliza cuando trabajamos con variables continuas y se halla restando 0,5 al límite
inferior y sumando 0,5 al límite superior; el límite superior real de cada intervalo de clase será igual al
límite inferior real del intervalo siguiente.
-Punto medio (PM): cuando los datos están agrupados en clases, el problema es saber a que valor
del intervalo se le debe asignar la frecuencia absoluta. Se acepta como el valor más representativo
del intervalo al punto medio.
Frecuencia acumulada (F): sirve para conocer la cantidad de valores mayores que, o menores
que, un determinado valor. Se calcula sumando la frecuencia acumulada anterior más la frecuencia
absoluta del intervalo. Se grafica en la Ojiva de Galton.
-Medidas de tendencia central: dan rápida descripción de las distribuciones, se debe seleccionar en
cada caso la adecuada. Constituyen un valor de la variable alrededor de la cual se halla la mayor
cantidad de observaciones. Son tres:
-Modo (Mo): es aquel valor de la variable que se repite más veces, o sea el que posee mayor
frecuencia. La distribución puede contener un modo (unimodal), dos modos (bimodal), ,o más de dos
modos (polimodal). Es la única medida de tendencia central que se puede hallar en todos los niveles
de medición.
Ventajas: muestra el valor más importante de un conjunto; no se afecta por valores extremos en
una dirección; se pueden obtener cuando se desconocen los valores extremos, es muy fácil de hallar
(se halla a simple vista).
Desventajas: no considera el valor exacto de cada unidad; no es útil para un conjunto de datos
chicos; no se puede estimar con certeza cuando los datos se agrupan en intervalos; no se puede
emplear en estimaciones de parámetros de población.
-Mediana (Md): es aquel valor o categoría de la variable que divide a la variable en dos partes
iguales, de manera tal que la mitad de casos toman valores inferiores a ella y la otra mitad tiene
valores superiores. Las observaciones deben estar ordenadas por lo que sólo pueden ser halladas a
partir del nivel ordinal. Se utiliza con un distribución asimétrica, cuando hay intervalos abiertos.
Para datos sin agrupar: se debe determinar cual es el orden que le corresponde, que resulta de
dividir en 2 el total de casos (Mdo = n/2; si hay menos de 30 casos la Mdo = n + 1/2 se corrige el
resultado con un factor de corrección que es sumarle 1). Luego hay que buscar el valor de la variable
que corresponda a ese orden.
Para datos agrupados: hay que calcular las frecuencias acumuladas, luego hallar el orden y ubicar
ese orden en la primera frecuencia que lo contenga. Y allí ver cual es el
Para datos agrupados en intervalos: se debe ordenar los valores de la variable, hallar las frecuencias
acumuladas, calcular la mediana de orden y calcular el valor de la mediana según la formula.
Fi
Cuando el total de casos es menor que 30 es conveniente agregar una unidad al total de casos para
disminuir el error. Cuando el número es impar, la mediana es el caso del medio.
Ventajas: es más fácil de calcular que la media; no se afecta por valores extremos en una dirección;
se puede obtener cuando se desconocen los valores extremos.
Desventajas: no considera el valor exacto de cada unidad; no se puede utilizar en estimaciones; si son
pocos valores puede no ser representativa.
-Media aritmética (X): es un promedio, es decir, la suma de cada una de las observaciones
dividida por el total de casos. Sólo puede ser hallada cuando trabajamos con variables cuantitativas
(niveles de medición del ordinal en adelante). No conviene usarla cuando se trata de valores
extremos no compensados. Se utiliza en escalas de intervalos iguales o por concientes, cuando
conocemos todos los valores de la distribución y si esta es más o menos simétrica.
Propiedades de la media:
Si se suma, resta, multiplica o divide a cada valor de la variable por una constante la media resultará
afectada por la misma operación
Para datos sin agrupar: la media es igual a la sumatoria de los valores de la variable y el número
total de casos.
Fórmula: X = å x
Para datos agrupados: las datos estarán agrupados en frecuencias, la media será igual a la
sumatoria de cada valor de la variable multiplicado por la frecuencia, dividido por el total de casos.
Fórmula: X = å (x . f)
Para datos agrupados en intervalos: cada intervalo está representado por su punto medio (PM) y
la media será igual a la sumatoria de los PM multiplicados por la frecuencia y divididos por el total de
casos.
Fórmula: X = å (PM . f)
Media total: media que nos permite calcular un promedio general de distintos grupos.
Formula: Xt = X . n + Xa . n2 + Xb . n3 …..
ntotal
MEDIA
MEDIANA
-distribución asimétrica
Nominal
Ordinal
Intervalos iguales
Por cociente
Media
X
X
Mediana
Modo
-Media geométrica: para una serie de valores, es la raíz enésima del producto de sus valores. Se
usa poco y con logaritmos para calcular las raíces enésimas.
-Media total (Xt): nos permite calcular un parámetro general de diferentes grupos.
Formula: Xt = X1 . n1 + X2 . n2 ….
nt
-Medidas de orden: medidas no centrales, que pueden calcularse gráficamente hallando la Ojiva de
Galton. Ellas son:
-Cuartiles: son tres y dividen el área o frecuencia en 4 partes = de 25% cada una.
4 Fi
Todas las medidas de orden se definen por el porcentaje de casos que dejan por debajo.
Ojiva de Galton: sobre el eje x se marcan los límites reales superiores de cada intervalo, en el eje
y las frecuencias acumuladas. Paralelo al eje y se traza un eje de porcentajes, en donde el 100%
corresponderá a la mayor frecuencia acumulada, al total de los casos. En el límite superior de cada
intervalo se marca la frecuencia acumulada que le corresponde. Se unen los puntos, como una S si la
distribución fuera normal.
Medidas de variabilidad: sirve para determinar como varían los puntajes u observaciones en relación
a la tendencia central. Ej.: cuando comparamos 2 distribuciones puede pasar que tengan la misma
media pero ser distintas en cuanto a la distribución. Dan cuenta de la homogeneidad o
heterogeneidad de un grupo. Ellas son:
-Amplitud total (At): es la diferencia entre el mayor valor y el menor valor de la variable, cuando
usamos los límites aparentes debemos sumarle un punto. Da una idea aproximada de la variabilidad,
no es muy confiable cuando hay huecos. Se usa en muestras pequeñas y no es comparable en grupos
de n distinta.
Formula: At = V - v
Desventajas: no es representativo (no nos dice si los valores están agrupados o no de manera
cercana al rededor de la media)
Fórmula: Q = C3 – C1
La distancia entre los cuartiles nos da una idea de la simetría o asimetría de la distribución.
cuando C1 + Q = C2 es simétrica
Cuanto mayor es el valor de Q mayor heterogeneidad. Esta desviación se usa cuando se toma como
medida de tendencia central a la mediana, lo que indica que la distribución es asimétrica.
Ventajas: es representativo del agrupamiento central de valores; es muy sencillo de calcular.
-Desviación Estándar (S): se emplea cuando hemos hallado la media de medida de tendencia
central, se basa en la desviación de los puntajes respecto a ella. Es el promedio de los desvíos a la
media. Se eleva al cuadrado cada uno de los desvíos (porque sino da 0) y luego se extrae la raíz con lo
que se reduce este promedio a la unidad que tenía las observaciones originales. Por lo que el desvío
estándar es la raíz cuadrada del promedio del cuadrado de las desviaciones de las medidas respecto
a su media. Es la medida que varía menos cuando se calculan distintas muestras de una población. Se
expresa en la misma unidad de medida que la variable que estamos usando. Cuanto menor sea el
valor del desvío estándar más homogéneo será el grupo.
Propiedades:
si se suma o resta a todos los valores de la variable un valor constante, la media queda aumentada o
disminuida en este valor pero el desvío permanece igual.
Si se multiplica o divide cada valor de la variable por un valor constante tanto la media como el
desvío se ven afectados por esa operación.
Para datos sin agrupar: hay que calcular la X, calcular los desvíos de cada puntaje respecto a la X,
elevar cada desvío al cuadrado, hallar la sumatoria de éstos y reemplazar por la fórmula.
Formula: S = å (X – X)2
¶ n
Para datos agrupados: se siguen los pasos anteriores, pero se deberá multiplicar por la frecuencia.
Formula: S = å (X – X)2 . f
¶ n
Para datos agrupados en intervalos: el punto medio representa los valores de cada intervalo por
lo que se reemplaza X por PM en la fórmula.
¶ n
Ventajas: se puede utilizar en estimaciones de los parámetros de población; considera todos los
valores; es la más sensible de las medidas.
-Variancia (S2): es el promedio de la suma de los cuadrados de los desvíos a la media, o sea el desvío
estándar elevado al cuadrado. La raíz cuadrada no permite aplicar la propiedad distributiva para la
suma y resta, por lo tanto cuando queremos analizar la desviación en sus distintos componentes se
recurre al cálculo de la varianza.
Formula: S2 = å (X – X)2
Ventajas: se puede utilizar en estimaciones de los parámetros de población; considera todos los
valores; es la más sensible de las medidas.
-Coeficiente de variación (CV): es una medida de variabilidad relativa, se expresa en porcentaje, por
lo que permite la comparación entre variables medidas en unidades diferentes, en cuando
tratándose de la misma unidad de medida, las medias son muy distintas. Se usa en el nivel de
cocientes o razones.
Formula: CV = S . 100
Estas razones llamadas cocientes de probabilidad se definen por aquella fracción cuyo númerador
sea igual al resultado deseado y cuyo denominador sea igual a la totalidad de resultados posibles.
El desarrollo binominal se aplica con mayor utilidad a los casos en que interviene un número mayor
de factores independientes.
En todo estudio se considera P + Q = 1, así toda relación de probabilidad es posible, pero cuando P no
es igual a Q, las distribuciones son asimétricas y no normales.
La diferencia entre las 2 primeras definiciones es que el enfoque de Laplace es una definición teórica
y la de Kolmogorof es operacional.
Leyes de Laplace:
El valor numérico de la probabilidad es siempre un número positivo o nulo y nunca mayor que 1
Relación entre probabilidad y teoría de los conjuntos: podemos considerar todos los resultados
posibles de una experiencia (tiradas de monedas al aire) como puntos en un espacio que se llama
“espacio muestral” y que simbolizamos por S. Si S contiene una cantidad finita de puntos, entonces
cada punto puede vincularse a un valor positivo llamado “probabilidad” y la suma de todos estos
valores correspondientes a cada punto es la unidad. Un hecho es un “conjunto” de puntos en el
“espacio”.
P(A) = n(A)
N(S)
A Ì S ® A pertenece a S
Si S es un universo con subconjuntos A y B cuyas probabilidades conocemos como P(A) y P(B)
entonces tenemos:
-Si A y B son mutuamente excluyente, entonces la probabilidad de la unión será: P(AUB) = P(A) +
P(B)
Rudimentos de análisis combinatorio: para obtener las probabilidades de los hechos complejos a
menudo es difícil la enumeración de los casos y para facilitar la labor se usa el análisis combinatorio.
Hay 3 formas de hacerlo:
-Variaciones o arreglos: son los subgrupos de n objetos tomados de r en r siendo r<n. El número
de variaciones es igual al producto de las r enteros decrecientes a partir de n.
Fórmula: Vnr = n! .
(n – r)!
-Permutaciones: son los modos de clasificar todos los objetos del conjunto o sea n objetos
tomados de a n, lo que se indica con n!
Formula: Pn = n!
-Combinaciones: son las variaciones de n objetos tomados de r pero sin tener en cuenta el orden.
Es el cociente entre las variaciones de n objetos tomados de a r y las permutaciones de r
Formula: . n! .
Vnr = (n – r)! = n! .
Pn r! (n – r)! r!
Las probabilidades compuestas de distintas combinaciones se expresan por el desarrollo del binomio
(P + Q)n. Los valores de las combinaciones, se llaman coeficientes binominales y pueden hallarse
fácilmente por el conocido triángulo de Pascal o Tartaglia.
El desarrollo binominal se aplica con mayor utilidad a los casos en que interviene un número mayor
de factores independientes. Es un modelo teórico donde se combinan la ley de la suma y la del
producto (leyes de Laplace). Este modelo teórico posee los 4 momentos (X, S, As, Cu).
-Esperanza matemática: cuando una variable aleatoria (al azar), puede tomar solo un conjunto
finito de valores (valores que son números enteros), hablamos de variables discretas. La distribución
de frecuencias puede transformarse en una distribución de probabilidades. Siempre que tenemos
una variable aleatoria discreta en la que haya valores de x1 a xn la serie de las probabilidades de
ocurrencia para los n valores es igual a 1. La media aritmática de una distribución de probabilidades
se llama esperanza matemática, el valor esperado para una variable aleatoria x cuyo símbolo es E(x)
se obtiene sumando el producto de cada uno de los valores en que puede darse la variable por su
probabilidad.
-T de Student: (para n < 30) la distribución de la t de Student es unimodal y simétrica, con media igual
a 0; es la distribución más chata, más aplanada que la distribución normal, más platicúrtica, y esto
dependerá del tamaño de la muestra; si n es muy pequeña la distribución normal será muy chata. Se
puede usar en varios puntos de significación. Debe suponerse que la distribución de la población
debe ser normal, especialmente si n es muy pequeña.
Fórmula: t = X – X
r!
-Distribución hipergeométrica: se usa cuando se hace el muestreo sin reemplazo, es poco usual.
Y= N .e N: número de casos
Curva Normal: sirve para determinar los coeficientes de cada uno de los términos del desarrollo de
un binomio. Para variables continuas. La distribución de frecuencias se aproxima a un tipo de curva
en forma de campana. La curva normal se usa como modelo matemático para explicar fenómenos
que empíricamente presentan distribuciones en forma de campana. La curva de distribución normal
es la expresión gráfica de una función matemática que sirve de modelo.
Características: es simétrica respecto al punto medio del eje horizontal. El punto por el que es
simétrica es el punto en el que caen la X, la Md y el Mo.
El área total de la región incluida entre la curva y el eje x es igual a 1, es la certeza, teóricamente
es el 100% lo que se escapa (porque es asintótica) en los extremos son casos insignificantes. Un
cambio en el valor de la media aritmética produce solamente un desplazamiento de la curva sin
modificar su forma, mientras que cualquier variación en el desvío estándar, equivale a un cambio de
escala en los ejes de la variable x.
El área total debajo de la curva se toma arbitrariamente como 10.000 porque así es más fácil calcular
fracciones del área total.
Las medidas de variabilidad incluyen ciertas fracciones constantes del área total de la curva normal: -
entre X y +/- 1 se halla el 68,26% de la distribución
Una de las aplicaciones es convertir las puntuaciones directas o puntajes brutos en puntuaciones
típicas o estándar. Con la desviación estándar nosotros obtenemos la distancia de variabilidad de un
puntaje promedio en relación con la media de una distribución, pero no nos dice nada acerca de cual
es el punto dentro de la distribución. Para poder llegar a expresar cualquier puntuación de ésta
manera se deben transformar o convertir las puntuaciones directas en puntuaciones típicas. Estas
puntuaciones típicas son muy importantes porque permiten reducir puntuaciones de diferentes
distribuciones en unidades de medida comunes.
La distribución normal sirve para descubrir la frecuencia de ocurrencia de muchos hechos variables,
con un grado relativamente alto de exactitud. Todos los factores n se consideran como similares
independientes e iguales en fuerza, y la probabilidad de que cada uno esté presente o ausente en la
misma.
Para determinar el porcentaje de casos en una distribución normal dentro de determinados límites.
Encontrar los límites, dentro de toda distribución normal, que incluyen un determinado porcentaje
de caos.
Dividir un grupo dado en subgrupos según la capacidad cuando la característica está distribuida
normalmente.
Hay infinitas curvas normales, cada una se define por el valor que tenga la X y el S. La curva
normal estándar se caracteriza porque su media vale 0 y el desvío estándar 1
Asimetría: toda relación de probabilidad es posible mientras P + Q = 100. Pero las distribuciones
obtenidas del desarrollo de (P + Q)1 cuando P no es igual a Q son sesgadas o asimétricas y no
normales. Se dice que una distribución es asimétrica o sesgadas si la media o la mediana caen en
distintos puntos de la distribución y el equilibrio o centro de gravedad está desplazado a uno u otro
lado.
-Sesgadas positivamente o a la derecha: cuando los puntajes se acumulan hacia el extremo bajo de la
escala (izquierdo) y se extiende hacia la alta gradualmente (derecha). La media se halla hacia la
derecha de la mediana.
Formula: G = 3. (X – Md)
Causas:
La selección: la selección producirá asimetría y curtosis en las distribuciones, aunque el test esté
construido adecuadamente y se administre con todo esmero. Los puntajes logrados por grupos
reducidos y homogéneos probablemente darán distribuciones angostas y leptocúrticas, los puntajes
de grupos grandes y heterogéneos mostrarán más bien una forma ancha y platicúrtica
Test inadecuados o mal construidos: si un test es demasiado fácil, los puntajes se acumularán en el
extremo alto de la escala, mientras que si es muy difícil se amontonarán en el extremo bajo. La
asimetría también puede producirse debido a ítems ambiguos o mal hechos u otras fallas técnicas.
Distribuciones no normales: puede haber una falta de normalidad en las características que se está
midiendo, esto ocurrirá cuando algunos de los factores hipotéticos que determinan la intensidad de
un rasgo sean dominantes o prevalezcan sobre los demás, estando presentes, con mayor frecuencia
de lo que permitiría el azar.
Errores de construcción y administración de los test: ej.: la diferencia en la magnitud de las unidades
en que se expresan los resultados del test. Si los items son muy fáciles al principio y difíciles después,
se aumenta un extremo de la escala y disminuye otro.
Fórmula: Cu = Q .
P90 – P10
-Transformaciones lineales: se usa utilizando una ecuación de 1º grado, la cual tiene todos los
términos con exponente igual a 1. Cuando se las representa gráficamente se obtiene una línea recta.
Hacer esta transformación implica 2 pasos:
Ecuación de 1º grado: y = a + bx
Entre las transformaciones lineales las más conocidas son los puntajes z (z). Son transformaciones
que se pueden hacer a los valores o puntuaciones obtenidas con el propósito de analizar su distancia
respecto a la media aritmética, en unidades de desvío estándar.
Fórmula: z = X – X
Las puntuaciones z son el método más comúnmente utilizado para estandarizar la escala de una
variable medida en un nivel de intervalos iguales, o por cocientes o razones.
También sirven para analizar distancias entre puntuaciones de una misma distribución y áreas, de la
curva que abarcan estas distancias.
Tienen el inconveniente de que los puntajes a la izquierda de la media tienen signos negativos y
deben expresarse en decimales.
Para obviar esto muchas veces se usan los puntajes z derivados (Z), éstos fijan una media aritmética
arbitraria que suele ser el valor 50 y una desviación estándar arbitraria, que suele ser 10. En nuestras
transformaciones existe la ventaja de no tener valores negativos y podemos despreciar los decimales
porque represen una cantidad pequeña.
También los z derivados son un transformación lineal de modo que no deforman la distribución
original de los puntajes.
-Transformaciones no lineales: emplean ecuaciones de 2º grado, que tienen por lo menos algún
miembro afectado por un exponente distinto a la unidad. Su representación gráfica da una curva.
Ecuación de 2º grado: y = ax2 + bx + c
Ventajas: permite la comparación entre distintas pruebas; son fáciles de entender por todos
Desventajas: al ser una transformación no lineal cambia la distribución de los puntajes originales.
La estadística que estudia las relaciones entre 2 variables cuales quiera, se llama estadística
bivariada. Se trata de una estadística de 2 variables que se estudian a la vez.
Correlación: es la apreciación de las variaciones de los valores de una variable en relación con otra
variación de los valores de otra variable. Es la covariación concomitante de dos variables, es la
medición del grado en el que pares de valores relacionados en dos variables tienden a cambiar
juntos. También proporciona una medición del grado en que pueden predecirse los valores en una
variable, a partir de los valores de la otra variable.
Dos variables están relacionadas cuando un cambio en una de ellas va acompañado de un cambio en
la otra. Un relación es lineal cuando x cambia e y cambia el doble. Una relación es no lineal cuando a
una determinada variación en x corresponden variaciones en y de diferentes valores.
Cuando se establece que hay correlación lo que quiere decir es que el coeficiente calculado es lo
bastante fuerte para no considerarse como mera influencia del azar.
Positiva: conforme una variable aumenta (x), también lo hará la otra (y)
El grado de esta relación (cuyo valor máximo es +/-1 y cuyo valor mínimo es 0, no correlación).
Formula: =1– 6 . å d2 .
N (N+1) . (N-1)
Desventaja: es una prueba no paramétrica y por lo tanto sufre todas las debilidades asociadas a estas
pruebas.
Ventaja: es sencilla de calcular y puede utilizarse con datos que no sean de intervalos.
Coeficiente Q de Yule (Q): mide la asociación de dos atributos dicotómicos, es decir, cada una de las
variables tiene 2 características. Se utiliza para variables de nivel nominal, mediante una tabla de
doble entrada. A cada frecuencia le asigno una letra.
Formula: Q = AD – BC
AD + BC
-Diagrama de dispersión: se colocan los pares de valores de las variables x e y, formando una Nube
de puntos: los puntos cuanto mayor forman una recta, mayor sera la correlación; cuando lo puntos
del gráfico se esparcen por todos lados, sin demostrar una tendencia la correlación es muy baja o
nula.
El punto de intersección entre X e Y, llamado varicentro, divide el diagrama en cuatro cuadrantes:
b: pendiente (dependiente)
a = (Y0 – Y1) Cuando la recta es paralela al eje vertical, a no esta definida, en este
Recta de Regresión: toda correlación entre 2 variables supone la existencia de dos líneas de
regresión. Se trata de ajustar una recta dentro de una nueve de puntos que pase por la mayor
cantidad de puntos. La recta tiene que ser la que mejor se ajuste y la distancia de los puntos a la
recta tiene que ser las menores. Para lograr esto hay que calcular a y b:
n å x2 – (åx) 2 n å x2 – (åx) 2
Nos permite calcular o estimar el valor y que corresponde a un valor x cualquiera de la variable
independiente. Esta estimación (a menos que la relación sea perfecta) adolecerá de un cierto error.
La ecuación no nos dará exactamente el valor y que corresponda a un valor x sino uno que se le
aproxima, por eso se escribe y’ en la ecuación de regresión, que quiere decir valor de y estimado o
calculado.
Hay 2 rectas de regresión: Y en X, X en Y. Una siendo x independiente e y dependiente; y otra siendo
e independiente y x dependiente. Cuando se grafican las 2 rectas, las correlaciones de ambas se
determinan por el ángulo entre las 2 rectas, si este ángulo vale 0 la correlación es +/-1
Cuando se utilizan las rectas de regresión se está ante la estadística inferencia, porque se está
haciendo una predicción.
La recta de regresión también se la llama la recta de los cuadrados mínimos, porque la suma de las
distancias de cada punto a la recta teórica, elevados al cuadrado, será un valor mínimo (å Dx2 =
mínimo).
Regresión lineal: es un modelo matemático para estimar el efecto de una variable sobre la otra.
Fórmulas: Yx = r . Sy . (X – X) + Y Xy = r . Sx . (X – X) + X
Sx Sy
Ecuación predictiva: las predicciones son para cualquier sujeto de la misma población. Para ello se
supone que:
Es posible determinar el error que se puede cometer en la predicción realizada, para ello se debe
determinar el error estándar de la estimación predictiva.
Con el error estándar conocido es posible determinar el camino crítico (son 2 líneas de puntos
alrededor de la recta de regresión), éste es una predicción que se establece a partir de la eficiencia
predictiva. Se obtiene sumándole y restándole el error estándar predictivo a la recta de regresión
Relación entre correlación y regresión: si todos los puntos de un diagrama de dispersión caen sobre
una recta las dos rectas de regresión coinciden y tenemos el caso en que la predicción es perfecta.
La distancia que hay entre un punto observado (Yo) y la media se llama variancia total, ésta se divide
en 2:
variancia no explicada: distancia que hay entre un punto observado y uno calculado según la (recta
de regresión)
-La diferencia entre los Yc y los Y elevados al cuadrado, sumados y divididos por N, dan la variancia
explicada de Y
-La diferencia entre los Yo y los Yc elevados al cuadrado sumados y divididos por N dan la variacia no
explicada de Y.
-La desviación total de los puntajes observados puede descomponerse en la suma de estas 2
variancias: la explicada y la no explicada.
Coeficiente de no determinación (k2): es la parte de la variancia que no esta predicha por la recta de
regresión.
1 = k2 + r2
-Coeficiente de alineación (k): indica el grado de falta de relación, cuanto hay de no correlación,
marca la independencia entre los dos fenómenos. Se complementa con la R de Pearson.
Fórmula: k = ¶ 1 – r2
-Indice de eficiencia predictiva (E): se define como el porcentaje de la reducción del error de
predicción por el hecho de conocer la correlación que existe entre las dos variables. Indica el margen
de acierto.
Formula: E = (1 – k) . 100
E = (1 - ¶ 1 – r2) .100
-Indice de determinación (r2): es la proporción de la variancia total de Y que se puede predecir
conociendo X.
-Prueba de Chi Cuadrada (x2): es un coeficiente de asociación. Permite decidir si existe relación entre
2 variables medidas en escala nominal u ordinal. Evalúa la relación entre 2 variables. Parte del
supuesto de la no relación entre variables (dicotomía).
Es un modelo de distribución probabilístico, tiene que ver con la teoría de la decisión estadística y
la prueba de hipótesis.
Proporción que incluye términos teóricos y términos empíricos o fácticos (hipótesis, se trabaja con 2
tipos de hipótesis: nula y alternativa). La hipótesis da un intento de explicación de los hechos, sirve
como principio organizador, es una buena fuente de metodología.
las categorías deben ser simultáneamente exclusivas y exhaustivas. Es decir, ninguna observación
puede incluirse datos fuera de la tabla
x2 como prueba de bondad de adaptación: la prueba de x2 puede servir para relacionar las
frecuencias observadas con las esperadas teóricamente según otro modelo. Si tiene margen de error
se utiliza la corrección de Yates donde se reduce el valor de O – E medio punto antes de elevarlo al
cuadrado.
E O: frecuencia observada
Ho = O – E = 0
n
-Si el x2 calculado es menor que el x2 teórico aceptamos la Ho.
Para comparar los valores de x2 calculados con la formula con los valores de x2 teórico se utiliza la
tabla de x2 específica.
La tabla tiene arriba los valores de significación y al costado los grados de libertad. Hay un valor de x2
para cada valor de significación y para cada grado de libertado
Hipótesis nula H0: representa un punto de vista o creencia generalmente aceptado acerca de una
cuestión en un momento dado. Se formula con el propósito expreso de rechazarla.
Hipótesis alternativa Hi: se opone a lo comúnmente aceptado acerca de una cuestión y refleja la
creencia o esperanza del investigador quien desea mejorar el conocimiento que se tiene del
fenómeno en estudio. La Hi expresa por lo general aquella concepción del fenómeno que el
investigador querría ver demostrada mientras que la hipótesis nula contraía la esperanza del
investigador. La hipótesis se refiere a una población ya que estamos efectuando afirmaciones sobre
valores poblacionales, o paramétricos.
Hipótesis exactas o inexactas: las hipótesis son exactas cuando especifican un valor determinado
para un parámetro. La Ho siempre es exacta. La Hi puede ser exacta e inexacta, si propusiera un valor
determinado sería exacta.
Planteo de la Hi como uni o bidireccional: cuando se conoce poco del fenómeno en estudio, es
frecuente que sólo pueda conjeturarse la existencia de una diferencia , o un efecto, o una relación,
sin que sea posible precisar el sentido de la diferencia o la relación o la dirección del efecto.
Elección de la prueba estadística que se realizará: la prueba de una hipótesis sobre la media
paramétrica
Elección del nivel de significación: elección entre valores de 05 y 01. El valor de a depende de los
valores críticos que definen la zona de aceptación y de rechazo de Ho. Si definimos esta zona con los
resultados experimentales a la vista, podemos ser inducidos a hacerlo de tal modo que se cumplan
nuestras expectativas a favor o en contra de las hipótesis cualquiera sea el resultado experimental.
Determinación de los puntos críticos: depende de si la prueba es de uno o dos extremos, del valor de
a, del modelo matemático que describe la distribución de muestreo de los resultados del
experimento bajo Ho.
-tipo I (a): rechazar la hipótesis nula que en realidad es verdadera y aceptar la H, que es falsa. La
probabilidad de cometer un error de tipo I , es la probabilidad de observar un resultado en la zona de
rechazo de la Ho, siendo ésta verdadera. Esta probabilidad se designa como nivel de significación y
se simboliza con la letra griega a. Este tipo de error lo fija el investigador.
Cuanto menor probabilidad de cometer un tipo de error, mayor probabilidad de cometer un error de
otro tipo.
Al probar una hipótesis, la mayor probabilidad que se está dispuesto a arriesgar al cometer un error,
es el nivel de significación que se usa. Suele ser 5%, 1%.
Los errores en la prueba de hipótesis se pueden ver a través de la zona de aceptación (conjunto de
resultados posibles de un experimento que tienen una relativamente alta probabilidad de verificar si
es cierta la hipótesis nula) y la zona de rechazo (conjunto de resultados de un experimento que tiene
escasa probabilidad de verificarse si fuera cierta la hipótesis nula.)
Puntos críticos: las zonas de aceptación y rechazo de la Ho, están separadas por un valor que
llamamos punto crítico.
Aplicaciones de x2: existen numerosas aplicaciones. La prueba de la mediana es una de ellas. Muchas
veces es necesario conocer si 2 muestras difieren o no en cuanto a su tendencia central. Cuando los
datos corresponden al menos a una escala intervalar, se realiza una prueba de diferencias entre
medianas. Sin embargo, no siempre contamos con mediciones de esos niveles. Si las muestras son
independientes y contamos por lo menos con una medición ordinal, podemos someter a prueba la
hipótesis que las muestras proviene de la misma población en lo que se refiere a tendencia central,
utilizando la prueba de la mediana. La Ho postula que la mediana de una muestra es igual a la de la
otra. El procedimiento consiste en calcular la mediana de las dos muestras combinadas y luego
resumir los datos originales en una tabla de 2x2, consignando para cada muestra el número de
observaciones que están respectivamente por encima y por debajo de la mediana combinada
calculada para el grupo total. Si los 2 grupos presentarán exactamente la misma mediana y no
hubiera ningún error de muestreo, se esperaría que esta distribución de las observaciones fuera
proporcionalmente igual para ambos grupos
Ejemplo:
Muestra1
Muestra 2
Total
100
90
190
100
90
190
Total
200
180
380
Luego se calcula
Teoría de la Decisión: algunos autores dicen que la estadística es una conjunto de métodos para
tomar decisiones inteligentes frente a la incertidumbre. En las ciencias sociales realizamos
investigaciones para determinar la aceptabilidad de las hipótesis que derivamos de una teoría.
Después de seleccionar ciertas hipótesis que consideramos importantes para una teoría
determinada, recolectamos los datos empíricos que han de aportar información para la aceptación
de dicha hipótesis. Nuestras decisiones sobre el significado de los daos pueden conducirnos a
retener, revisar o rechazar la hipótesis y la teoría de la cual procedía para llevar adelante este
procedimiento, es decir, para tomar una decisión se necesita objetividad para aceptar o rechazar una
hipótesis.
Prueba de hipótesis: se da a través de la prueba de chi cuadrada (x2). Para la confirmación de una
hipótesis se deben seguir los siguientes pasos:
Se realizan investigaciones para determinar la aceptabilidad de la hipótesis;
Los errores en la prueba de hipótesis se pueden ver a través de la zona de aceptación es el conjunto
de resultados posibles de un experimento que tienen una relativamente alta probabilidad de verificar
si es cierta la hipótesis nula; y la zona de rechazo es el conjunto de resultados de un experimento que
tiene escasa probabilidad de verificarse si fuera cierta la hipótesis nula.
C= x2 .
¶ x2 – y
El coeficiente C es igual a 0 cuando las variables son independientes entre si, en cambio, el límite
superior de este coeficiente depende del número de hileras y columnas, pero es siempre menor que
la unidad. Esto dificulta en alguna medida la interpretación de este coeficiente, pero ella siempre es
válida cuando se comparan tablas de igual tamaño. Por otro lado, se conoce cual es el valor máximo
que el coeficiente puede tomar en una tabla de un determinado tamaño (puede consultarse en
cualquier libro de estadística)
El coeficiente C de Pearson tiene, una ventaja con respecto al coeficiente Q de Kendall, puede
calcularse en tablas de cualquier tamaño, mientras que el 2º sólo puede calcularse en tablas de 2x2.
Este coeficiente puede aplicarse en tablas de cualquier tamaño y alcanza un máximo de 1. Cuanto
mayor el valor del coeficiente V de Cramer más fuerte es la asociación entre las variables en estudio
Relación o asociación entre el trabajo de las madres y el rendimiento escolar de los niños. Muestra
compuesta por 114 niños de 9 a 10 años de distintas escalas sociales.
Si
NO
TOTAL
Bueno
37 E:37,82
51 E:50,17
88
Regular
12 E:11,17
14 E:14,82
26
TOTAL
49
65
114 (n)
Averiguar si existe asociación entre el hecho de que la madre trabaje y el rendimiento escolar del
hijo.
La Ho dirá: no existe asociación entre el rendimiento escolar del niño y el echo de que su madre
trabaje. (es decir, que los atributos son independientes).
x2 = å (O – E) 2 E: frecuencia esperada
E O: frecuencia observada
Ho = O – E = 0
x2 = (37 – 37,82) 2 + (51 – 50,17) 2 + (12 – 11,17) 2 + (14 – 14,82) 2 = 0,13
-buscamos GL:
GL = (C – 1) . (H – 1)
(2 – 1) . (2 – 1) = 1
-Nivel de significación = 5%
-Como el valor calculado (0,13) es menor que el valor teórico (3,84), aceptamos la Ho, y los
atributos son independientes.
Unidad 9: Muestreo
Población: conjunto total de elementos que constituyen un área de interés analítico. Lo que
constituye la población total está delimitado por problemáticas de tipo teórico. Los elementos que
constituyen una población pueden ser individuos humanos, animales, naciones, edificios, etc.
Los valores estadísticos que se obtienen estudiando poblaciones completas se llaman parámetros
(media, desviación estándar), éstos se representan con letras del alfabeto griego.
-Estimación de parámetros: los parámetros son valores poblacionales fijos representados con
letras griegas que caracterizan una población (media, variancia, desvío estándar). Los estimadores
son los valores que estiman los parámetros poblacionales a partir de una muestra (X, S2, S)
Muestra: subconjunto del conjunto total que es la población. Debe tener una estructura análoga a la
de la población. Galtung dice que una muestra debe satisfacer 2 condiciones:
En ella debe ser posible poner a prueba hipótesis sustantivas. Esto es proporciones acerca de
relaciones entre variables.
Debe ser posible poner a prueba hipótesis de generalización, es decir, de la muestra a la población.
Esto constituye la inferencia
Los valores estadísticos que se obtienen de las muestras se llaman estadísticos y se representan con
letras del alfabeto latino.
La distribución de muestreo de la media (X) es una distribución teórica o ideal y conocida y debe
distinguirse de la distribución paramétrica o poblacional de una variable que es una distribución real
a menudo desconocida y alguna de sus características procuramos estimar
Las ventajas de la utilización de las muestras son que la información obtenida suele ser de mejor
calidad que trabajando con grupos muy grandes. Se necesitan menos colaboradores.
Tipos de muestras:
-Muestras predispuestas: son aquellas que han sido seleccionadas de manera tal que la
comprobación o la refutación de las hipótesis pasa a ser el resultado de procedimientos de
muestreo.
-Muestras no predispuestas: son aquellas cuya probabilidad de extracción es conocida. Hay dos
muestras de este tipo: muestras cuya probabilidad de ser extraídas es 0 o 1 (finalistas) o muestras
cuya probabilidad de ser extraídas es diferente de 0 y de 1 (probabilísticas)
-Azar simple: aquellas muestras en las que cada elemento de la población tiene la misma
probabilidad de estar incluido en la muestra elegida y también toda combinación de elementos tiene
la misma probabilidad.
Procedimientos básicos:
Ventajas:
Permitir la generalización
Proporciona base para calcular el grado de disparidad entre las medidas de la muestra y del universo.
Desventajas:
-Sistemática: consiste en elegir los individuos de la muestra a intervalos sistemáticos del listado, es
decir a intervalos iguales a partir de un primer caso elegido según el método de los número al azar.
Este método es más conveniente que el azar simple cuando el listado es muy largo.
Procedimientos básicos:
Ventajas:
Permitir la generalización
Proporciona base para calcular el grado de disparidad entre las medidas de la muestra y del universo
Desventajas:
Desde el punto de vista estrictamente estadístico, este tipo no es probabilístico, ya que, si bien una
vez iniciado el muestreo las probabilidades son las mismas para la 1º selección, una vez elegido este
número, la muestra pasa a ser finalista
Procedimientos básicos:
Las fracciones de muestra en cada estrato son proporcionales o pueden ser distintas
Ventajas:
Permitir la generalización
Proporciona base para calcular el grado de disparidad entre las medidas de la muestra y del universo
Si las fracciones de los estratos en la muestra son distintas: posibilita mejor conocimiento de grupos
pequeños en el universo.
Desventajas:
Si las fracciones de los estratos en la muestra son proporcionales: puede no proveer un número
suficiente de casos para estratos pequeños y hay dificultad para determinar estratos homogéneos.
Si las fracciones de los estratos en la muestra son distintas: exige tratamientos estadísticos algo
complejos y hay dificultad para determinar estratos homogéneos.
Costos más altos que en las muestras simples y de conglomerados y alto costo de tiempo.
-Conglomerado: se usa generalmente cuando hay que hacer trabajos que abarcan una superficie
geográfica muy amplia. Se trata de que dentro del conglomerado esté representada la mayor
cantidad posible, por lo que en este tipo de muestreo suele haber mucho error. El objeto de este
método consiste en dividir a la población en sectores llamados conglomerados, cuya característica
fundamental es que las cantidades sean más heterogéneas entre sí dentro de cada conglomerado y
que los conglomerados sean lo más homogéneos posibles.
Procedimientos básicos:
Permitir la generalización
Proporciona base para calcular el grado de disparidad entre las medidas de la muestra y del universo
Ahorra dinero sobre todo porque permite la concentración de los entrevistadores en áreas próximas
y ahorra tiempo
Desventajas:
-Muestreo no probabilístico: sirve para tener una primera aproximación para un tema de estudio.
Son las que se llaman muestras para estudios pilotos o se utilizan para diseño exploratorio. El estudio
exploratorio tiene como finalidad la recolección de información. Esta información puede servir para
formular unas hipótesis o para saber si vale la pena seguir con la investigación. En éste no se conoce
el n de la población, por lo tanto no se pueden determinar los errores.
-Muestreo casual: consiste en pararse en un determinado lugar y preguntarle a aquel que pasa
algún tema determinado (encuesta callejera), no puede generalizar. Sirve para reunir información
para uno mismo.
Ventajas:
Desventajas:
-Muestreo intencional: se localiza a los que llamamos informantes claves, que son los que saben
acerca de lo que queremos investigar y recogemos información. Recolectar información de muchas
fuentes para poder lograrlo.
Ventajas:
Desventajas:
Ventajas:
Desventajas:
-Muestreo para probar hipótesis sustantivas: estas muestras deben ser seleccionadas de manera
tal que contengan el tipo de elementos sobre los cuales hacen referencia las proposiciones en que el
investigador está interesado. El investigador no está tan interesado en la generalización como en la
relación específica entre variables; de manera que quiere garantizar que su muestra contenga
unidades suficientes de un tipo determinado. La muestra debe ser suficientemente heterogénea.
Galtung, dice que el investigador debe responder 3 preguntas: ¿cuántas variables quiere el
investigador analizar simultáneamente?, ¿cuál es el número máximo de valores que desea utilizar
por variables? Y ¿cuál es el valor mínimo por celda que necesita. Por medio de las 2 primeras va a
determinar el tamaño de la matriz de los datos y por medio de la última va a satisfacer los requisitos
referentes a la prueba de hipótesis estadísticas.
Las muestras para probar hipótesis sustantivas son de mucha utilidad y es posible compatibilizar
las exigencias de un muestreo probabilístico, con las exigencias para probar hipótesis sustantivas.
Ventajas
Vinculadas al proceso total de la investigación, ya que obliga al investigador a explicar como hipótesis
y a pensar desde un comienzo en los métodos a utilizar en el análisis.
Desventaja:
Exige conocimiento previo tanto de características poblacionales, cuanto del tipo de análisis que se
va a utilizar. Algunas veces no es posible establecer generalizaciones.
-Definición del tamaño de la muestra: se debe lograr un tamaño de la muestra que se logre un
máximo de precisión, con un tamaño mínimo de muestra. No interesa tanto el tamaño de la muestra
como la ganancia en términos de nivel de significación que el investigador puede obtener
aumentando un número determinado de unidades. Hay 2 maneras:
1º: surge de los métodos estadísticos utilizados para el análisis y comprobación de las hipótesis, para
la determinación del tamaño de la muestra se parte de las diferencias mínimas. Hay que determinar
que nivel de confiabilidad y de significación desea el investigador (existen tablas donde se especifica
para cada nivel de significación el tamaño de la muestra necesario) y hay que conocer los valores
parámetros, cuando no se conocen es posible determinar el tamaño por medio de ciertas diferencias.
-El error estándar ( ) de la población es igual al desvío (S) de la muestra sobre la raíz de n.
= S
¶n
Ejemplo:
n: ?
riesgo: 5%
m : 80
:9
N: 3000
e2 22 demasiado)
m = X +/- z .
*los valores de z (distribución mermal) se utilizan cuando trabajamos con muestras grandes,
cuando las muestras son chicas (- de 30 casos) se utiliza otro modelo de distribución probabilístico, la
t de Student (t).
Ejemplo
n: 100
X: 20
s: 5
riesgo: 5% ® z: 1,96
: 5 = 0,5
¶100
m = 20 + 0,98
m = 20 – 0,98
Aumentando el número de casos se alcanza estimaciones más precisas sin tener que disminuir la
probabilidad de confianza, porque cuando mayor es n, mayor el denominador de la fracción y menor
será el error estándar de la muestra