Sunteți pe pagina 1din 7

VARIANZA DE DISPERSIÓN:

Las medidas de dispersión muestran la variabilidad de una distribución,


indicándolo del peligro verde por medio de un número, si las diferentes
puntuaciones de una variable están muy alejadas de la media. Cuanto
mayor sea ese valor, mayor será la variabilidad, cuanto menor sea, más
homogénea será a la media. Así se sabe si todos los casos son parecidos o
varían mucho entre ellos.
Las medidas de dispersión son números reales no negativos, su valor es
igual a cero cuando los datos son iguales y este se incrementa a medida que
los datos se vuelven más diversos.
Para calcular la variabilidad que una distribución tiene respecto de su
media, se calcula la media de las desviaciones de las puntuaciones respecto
a la media aritmética. Pero la suma de las desviaciones es siempre cero, así
que se adoptan dos clases de estrategias para salvar este problema. Una es
tomando las desviaciones en valor absoluto (desviación media) y otra es
tomando las desviaciones al cuadrado (varianza).

 Desviación típica: La desviación típica informa sobre la dispersión de


los datos respecto al valor de la media.
 Rango: En estadística el es la diferencia entre el valor máximo y el
valor mínimo en un grupo de números aleatorios. Se le suele simbolizar
con R.
 Medio rango: el rango medio o extremo medio de un conjunto de
valores de datos estadísticos es la media aritmética de los valores
máximos y mínimos de un conjunto de datos.
 Rango intercuartílico: es una medida de dispersión estadística, igual a la
diferencia entre los percentiles 75 y 25.
 covarianza: es un estadístico que indica la relación de las puntuaciones
entre sí
 Desviación media absoluta (MAD): es una medida sólida de la
variabilidad de una muestra univariable de datos cuantitativos.
 Diferencia media absoluta (univariante) es una medida de dispersión
estadística igual a la diferencia media absoluta de dos valores
independientes extraídos de una distribución de probabilidad.
 Desviación media
Medidas dimensionales:
La mayoría de las medidas de dispersión se encuentran en las
mismas unidades de la cantidad que está siendo medida. Entre ellas se
encuentran principalmente:
Medidas adimensionales:
Otras medidas de dispersión son adimensionales. Ejemplos de ellas son:

 coeficiente de correlación de Pearson: permite saber si el ajuste de la


nube de puntos a la recta de regresión obtenida es satisfactorio.
 Diferencia absoluta media relativa
 Entropía: Mientras que la entropía de una variable discreta es de
ubicación-invariante y escala-independiente, y por lo tanto no es una
medida de dispersión en el sentido anterior, la entropía de una variable
continua es invariante de ubicación y aditivo en escala.
 Coeficiente de variación

Varianza de una variable aleatoria


La varianza de una variable aleatoria es una característica numérica que
proporciona una idea de la dispersión de la variable aleatoria respecto de su
esperanza. Decimos que es un parámetro de dispersión.

La definición es la siguiente:

Es, por tanto, el promedio teórico de las desviaciones cuadráticas de los


diferentes valores que puede tomar la variable respecto de su valor medio
teórico o esperanza.

En el caso de las variables discretas, la expresión se convierte en:

mientras que para las variables continuas tenemos:


En ambos casos existe una expresión equivalente alternativa y
generalmente de cálculo más fácil:

Una de las características de la varianza es que viene expresada en


unidades cuadráticas respecto de las unidades originales de la variable. Un
parámetro de dispersión derivado de la varianza y que tiene las mismas
unidades de la variable aleatoria es la desviación típica, que se define como
la raíz cuadrada de la varianza.

Propiedades de la varianza

1. Var(X) ≥ 0
2. Var(k · X) = k2 · Var (X) para todo numero real k.
3. Var(k) = 0 para todo numero real k.
4. Var(a · X + b) = a2 · Var(X) para todo par de números reales a i b.
5. Var(X + Y) = Var(X) + Var(Y) únicamente en el caso que X y Y sean
independientes.
VARIANZA DE ESTIMACIÓN:

Estimar qué va a ocurrir respecto a algo (o qué está ocurriendo, o qué


ocurrió), a pesar de ser un elemento muy claramente estadístico, está muy
enraizado en nuestra cotidianidad. Dentro de ello, además hacemos
estimaciones dentro de un intervalo de posibilidades. Por ejemplo: “creo
que terminaré la tarea en unos 5-6 días”. Lo que hacemos en el terreno del
análisis de datos es aplicar matizaciones técnicas a este hábito. Vamos a
dedicar este documento al concepto de estimación, comenzando con la
estimación puntual. Después nos ocuparemos de desarrollar un modelo de
estimación por intervalo donde identificaremos los elementos
fundamentales, con su significado y símbolo. Y, por último, habrá que
desarrollar cómo se calculan esos elementos.

La estimación puntual Estimar puede tener dos significados interesantes.


Significa querer e inferir. Desde luego, el primer significado es más
trascendente. Pero no tiene ningún peso en la estadística, disciplina que no
se ocupa de los asuntos del amor. El segundo significado es el importante
aquí. Una estimación estadística es un proceso mediante el que
establecemos qué valor debe tener un parámetro según deducciones que
realizamos a partir de estadísticos. En otras palabras, estimar es establecer
conclusiones sobre características poblacionales a partir de resultados
muestrales. Vamos a ver dos tipos de estimaciones: puntual y por intervalo.
La segunda es la más natural. Y verás que forma parte habitual de nuestro
imaginario como personas sin necesidad de una formación estadística.

La primera, la estimación puntual, es la más sencilla y, por ese motivo,


vamos a comenzar por ella. Ocurre, además, que la estimación por
intervalo surge, poco más o menos, de construir un intervalo de posibles
valores alrededor de la estimación puntual. Una estimación puntual
consiste en establecer un valor concreto (es decir, un punto) para el
parámetro. El valor que escogemos para decir “el parámetro que nos
preocupa vale X” es el que suministra un estadístico concreto. Como ese
estadístico sirve para hacer esa estimación, en lugar de estadístico suele
llamársele estimador. Así, por ejemplo, utilizamos el estadístico “media
aritmética de la muestra” como estimador del parámetro “media aritmética
de la población”. Esto significa: si quieres conocer cuál es el valor de la
media en la población, estimaremos que es exactamente el mismo que en la
muestra que hemos manejado.

Estimación por intervalo Las estimaciones puntuales no son una buena


opción cuando constituyen el centro del objetivo, aunque solucionan
problemas de procedimiento, por lo que son absolutamente necesarias.
Es posible seguir caminos alternativos, pero el orden más lógico en una
estimación por intervalo viene a ser decidir la seguridad y, a partir de ella,
calcular el valor que ha de tener el error de precisión, construyendo acto
seguido el intervalo. Si entramos en un esquema más sistemático, he aquí el
proceso:

1. Decidir cuáles son los valores deseados para la seguridad y la precisión,


siendo conscientes de que valores muy ambiciosos generarán situaciones
muy exigentes.

2. Calcular el tamaño que ha de tener la muestra para conseguir esos


objetivos iniciales de precisión y seguridad. Este asunto será abordado
específicamente en otro monográfico (Tamaño de muestra).

3. Obtener la muestra.

4. Obtener el valor del estadístico utilizado como estimador, que suministra


el punto central del intervalo.

5. Calcular el error de precisión a partir de la información de la muestra y


de la seguridad deseada.

6. Construir el intervalo.

Estimación por métodos Geoestadísticos

Estimación Global. Interesa estimar la ley media y el tonelaje de todo el


yacimiento (o de una zona grande dentro del depósito o yacimiento)

Estimación Local. Interesa estimar la ley media de unidades o bloques con


el fin de localizar y diferenciar las zonas ricas y pobres dentro de la zona de
estimación.
Comentarios acerca del método:

• Todos los datos tienen el mismo peso 1/N

• Muy simple. Fácil de calcular

• Produce malos resultados cuando hay agrupaciones de datos.

• No funciona bien en estimaciones locales porque quedan bloques sin


información.

Comentarios acerca del método:

• Complicado, requiere compás, regla, planímetro.

• El peso del dato Zi es Si / S.

• Funciona mejor con agrupaciones de datos que la media aritmética.

• Difícil de implementar en tres dimensiones.

• En general no es adecuado en estimaciones locales porque asigna la


misma ley a todos los bloques que están dentro de un mismo polígono.
Produce problemas con datos anómalos.
Comentarios acerca del método:

• Simple, fácil de calcular.

• Se adapta mejor en estimaciones locales que globales.

• No funciona bien con agrupaciones de datos.

• Atribuye demasiado peso a las muestras cercanas al centro del bloque. En


particular no está definido si di = 0 (muestra en el centroide de S)

• No toma en cuenta la forma ni el tamaño del bloque Comentarios


generales.

• Son empíricos.

• Son geométricos.

• No consideran la continuidad de las leyes.

• No consideran presencia de anisotropías, es decir direcciones en las


cuales la variación de leyes es privilegiada.

• Los métodos tradicionales no proporcionan el error asociado a la


estimación, entregan solo la ley media.

• En general estos métodos presentan un fenómeno conocido como sesgo


condicional, es decir, una sobre-estimación de las leyes altas y una sub-
estimación de las leyes bajas.

S-ar putea să vă placă și