Sunteți pe pagina 1din 20

EVALUACION DE LOS

DATOS ANALITICOS
Introducción
 El manejo de datos experimentales es esencial al momento
de un análisis o experimento, ya que es necesario entender
la significancia de los mismos y por tanto, establecer
limitaciones sobre cada paso del análisis.
 El diseño de un análisis, el cual abarca la selección del
tamaño de la muestra, exactitud de las medidas requeridas y
número de análisis necesarios, se determina en base al
entendimiento apropiado de lo que esos datos representan.
 El manejo de datos experimentales permite obtener
información suficiente para estimar la incertidumbre
asociada a un resultado y la confiabilidad de un análisis.
 Cuántos datos mínimos de una medida serían necesarios para
obtener información relevante acerca del problema?
Caracterización de las mediciones
 Problema: Cuál es el peso verdadero de una moneda?
 La caracterización de los datos analíticos requiere de una
medida de tendencia central asociada a una medida de
dispersión alrededor de dicho valor central.
 Media aritmética: Es el valor obtenido al dividir la suma de las
mediciones individuales para el número de mediciones:

donde Xi es la medida número i y n es el número de medidas.


 La media aritmética es el parámetro más utilizado para valorar la
tendencia central. Sin embargo, no es considerada un estimador robusto
cuando existen medidas extremas (aquellas que son muy mayores o muy
menores que el resto de los datos), ya que influyen demasiado en el
valor obtenido. En tales casos se utiliza la mediana, que es el valor
central de los datos ordenados de mayor a menor.
Caracterización de las mediciones
 Desviación estándar: Es un indicativo de la dispersión (variabilidad)
de las mediciones individuales alrededor de la media:

donde Xi es una de las n mediciones individuales y es media.


 La desviación estándar generalmente se la expresa como desviación
estándar relativa (RSD):

 La desviación estándar relativa, cuando se la expresa en porcentaje se


denomina coeficiente de variación.
 Varianza: Es el cuadrado de la desviación estándar (s2).
 La ventaja de la desviación estándar sobre la varianza es que la
primera se expresa en las mismas unidades que los datos.
Caracterización de las mediciones
 Datos de estatura medidos en 100 niños de 6 años de edad.

 La zona sombreada corresponde a la media, más o menos una


desviación estándar.
Ejemplo
 Determinación del peso de una moneda:
Caracterización de errores
 Luego de haber caracterizado las mediciones existen dos
interrogantes:
 Está de acuerdo la medida de tendencia central con el valor
verdadero?
 Los errores asociados con la tendencia central reflejan la exactitud del
análisis.
 Por qué los datos están dispersos alrededor del valor central?
 Los errores asociados con la dispersión reflejan la precisión del análisis.
Exactitud – Errores determinados
 Exactitud: es el grado de concordancia entre el valor de la
media y el valor “verdadero o real”.
 Se la expresa como error absoluto:
 Se la expresa como error relativo en porcentaje:
 Los errores que afectan la exactitud se denominan errores
determinados o sistemáticos y son errores que pueden ser
detectados, evitados y corregidos. Son de 3 tipos:
 Error instrumental: Involucra las limitaciones propias de un equipo o
instrumento (medidor de pH, bureta, balanza, etc.)
 Error personal: Incluye errores debido a la falta de experiencia en el
manejo de técnicas de laboratorio (muestreo, cambio de color, mal
uso de materiales y equipos, etc.)
 Error de método: Incluye aspectos físico-químicos inevitables
(coprecipitación, absorción del blanco, reacciones incompletas,
reacciones no especificas, etc.)
Precisión – Errores indeterminados
 Precisión: es el grado de concordancia (reproducibilidad)
entre los valores de una medida.
 La precisión puede ser expresada como desviación estándar,
varianza, coeficiente de variación o intervalo de confianza.
 Los errores que afectan la precisión se denominan errores
indeterminados o aleatorios y son errores que no pueden ser
detectados, evitados y corregidos.
 Son de tipo accidental debido a las limitaciones naturales
involucradas en una medición.
 Pueden ser minimizados mejorando el trabajo experimental.
 Siguen una distribución normal o curva de Gauss.
Distribución normal
 La distribución normal viene dada por la función:

 Donde e es la base de los logaritmos naturales, μ es el valor


verdadero o real y σ es la desviación estándar poblacional.
Intervalo de confianza
 A partir de un número limitado de medidas es imposible encontrar el
valor real (μ) y la verdadera desviación estándar (σ). Únicamente
podemos determinar y s.
 El intervalo de confianza permite estimar (a partir de y s), con cierto grado
de probabilidad, los limites sobre el cual se encuentra el valor verdadero. El
intervalo de confianza viene dado por:

donde t (t de Student) es un factor estadístico (se lo encuentra en tablas


especificas) que depende del número de grados de libertad y del nivel de
confianza deseado, y n es el número de observaciones.
 Para el caso de las monedas; el intervalo de confianza al 95% sería:

Es decir, existe un 95% de probabilidad que el valor real del peso de las
monedas se encuentre entre 3.070 g y 3.164 g.
Pruebas de significancia
 Permite determinar si la diferencia entre dos o mas valores
puede ser explicada por un error indeterminado. Los valores
pueden haber sido obtenidos por:
 Distintos métodos de análisis.
 Igual método de análisis pero diferente momento, lugar o analista.
 Una prueba de significancia implica plantear dos hipótesis:
 Hipótesis nula (Ho): es aquella que señala que la diferencia entre dos
valores puede ser explicada por un error indeterminado. Se rechaza
la hipótesis nula si la prueba de significancia falla.
 Hipótesis alternativa (Ha): es aquella que señala que la diferencia
entre dos valores es demasiado grande para ser explicada por un
error indeterminado. Se acepta la hipótesis alternativa si la prueba de
significancia indica que la hipótesis nula debe ser rechaza.
 El rechazo o aceptación de una hipótesis se lo hace en base
al nivel de significancia deseado.
Rechazo o aceptación de hipótesis

 En a, el área bajo la curva de distribución normal muestra el


intervalo de confianza para la muestra basado en texp.
 En b y c, la barra sólida indica el intervalo de confianza
basado en ttab, el cual puede ser explicado por medio de un
error indeterminado.
 En b, la hipótesis nula se debe rechazar y aceptar la hipótesis
alternativa.
 En c, se retiene la hipótesis nula.
Test F:
 Permite determinar si existe diferencia significativa entre dos
grupos de datos, basados en el análisis de sus desviaciones
estándar.

Donde sA2 > sB2.


Existen dos diferentes grados de libertad υA y υB definidos por n-1
para cada caso.
 Si el valor de Fexp es mayor que el valor de Ftab para un
determinado nivel de confianza, entonces se rechaza la
hipótesis nula y se acepta la hipótesis alternativa.
 Esto quiere decir que, al nivel de confianza escogido, existe una
diferencia significativa entre los dos métodos.
Valores críticos de F
Test F: ejemplo
 La tabla muestra dos grupos de datos obtenidos para
determinar el peso de una moneda.

 La prueba F indica que, a un nivel de confianza del 95 %, (SI – NO)


existe evidencia que sugiere que la diferencia de precisión de los dos
grupos de datos es significativa.
Test t de Student
 Permite determinar si existe diferencia significativa entre dos
grupos de datos, basados en el análisis de sus medias.
 Caso 1: Comparación de la media con el valor verdadero:

 Caso 2: Comparación entre medias de datos no apareados:

 Caso 3: Comparación entre medias de datos apareados:


Valores críticos de t
 La
Test t: ejemplo
Test Q
 Permite determinar si en una serie repetida de datos, un
valor no es consistente.

 Ejemplo:

S-ar putea să vă placă și