Sunteți pe pagina 1din 151

Curso:

“Herramientas
estadísticas aplicadas
en laboratorios de
ensayo” Docente:
Javier Rodríguez Calzado

ASTECAL S.A.C. – DIGESA 0CT. 2017


TEMARIO
1 .-Conceptos básicos de estadística
2 .-Medidas de tendencia central
3 .-Medidas de dispersión
4 .-Detección de Puntos Atípicos, Gráficos de cajas
5 .-Distribuciones de probabilidad (discretas y continuas)
6 .-Prueba de Normalidad
7 .-Estimación de Intervalos de Confianza
9 .-Comparación de un grupo con un Valor Prueba t Student de una
muestra, prueba de Wilcoxon
10 .-Comparación de Dos grupos, Comparación de tendencia central,
Comparación de Varianzas
11 .-Comparación de tres grupos a más, ANOVA, Test de Kruskalwallis.
12 .-Estimación de la Relación entre variables. Correlación Análisis de
Regresión
13 .-Uso de herramientas informáticas
CONCEPTOS

• Definición de Estadística

Recopilar Presentar
Organizar
datos datos Analizar
datos
datos

• La estadística, en general, es la ciencia que trata de


la recopilación, organización, presentación, análisis
e interpretación de datos numéricos con el fin de
realizar una toma de decisión más efectiva.
¿CUÁNDO DEBO USAR
ESTADÍSTICA?

 No puedo medir todos los elementos de una


Población.
 Necesito información de inmediato
 Tengo poco presupuesto
 Confío en el método de medición
 Necesito hacer proyecciones para los siguientes
años o lotes de producción
CONCEPTOS

Subdivisión de la estadística

Estadistica

Descriptiva Analítica

Variables Variables Paramétrica No-paramétrica


numéricas categóricas

Centralización Dispersión Proporciones


Tasa

Media varianza
mediana Desviación estándar
Moda Máx.-mín
ESTADÍSTICA DESCRIPTIVA
CONCEPTOS

Población: Conjunto de unidades elementales con


características comunes que los identifican y que
pueden ser medidas. Puede ser finita o infinita.
Muestra: Es cualquier subconjunto de unidades
elementales de una población que se selecciona para
ser analizada.
CONCEPTOS

Estimación: Es el valor que se obtiene al aplicar un estadígrafo


o estimador a los datos de una muestra.

Parámetro: Representa una característica de la población.


Para obtener su valor se hace necesario contar con toda la
información que brindan los elementos de una población.

Estadístico o Estadígrafo o Estimador: Representa una


característica de la muestra. Para obtener su valor se utiliza la
información muestral.
ESTADÍSTICA INFERENCIAL

Población

parámetro

probabilidad inferencia

Estadístico

Muestra
(data)
CONCEPTOS

Variables: es toda característica que presentan los elementos de


una población y que puede asumir diferentes valores cuando se
realiza su medición.
VARIABLES Y ESCALAS DE
MEDICIÓN
Clasificación de la variable

Continua
De razón

Cuantitativa

Discreta De intervalos
Variable

Nominal
Cualitativa
Ordinal
VARIABLES Y ESCALAS DE
MEDICIÓN
Variable Cuantitativa o Numérica
Característica de los individuos de la muestra que puede medirse
con un instrumento y lleva asociada una unidad de medida.
• Discreta: cuando no admiten siempre un valor intermedio
entre dos cualesquiera de sus valores.
• Continua: cuando admiten una modalidad intermedia entre
dos cualesquiera de sus modalidades, p.e. peso X de un niño
al nacer.
VARIABLES Y ESCALAS DE
MEDICIÓN
Variable Cualitativa
Característica que recoge una cualidad de los individuos de
la muestra. No puede medirse con un instrumento ni lleva
asociada una unidad de medida.
• Nominales: Si sus valores no se pueden ordenar
• Ordinales: Si sus valores se pueden ordenar
CONCEPTOS

Ejemplo:

• Medición del volumen de una solución:


• Variable Cuantitativa, continua, medida en una escala de razón.

• Medición del peso de un material


• Variable …

• Medición del pH de una solución


• Variable …

• Resultados del Método de Detección de Helicobacter pylori en


aguas de consumo
• Variable …
PRUEBAS

Los posibles enfrentamientos que podemos encontrar según la


clasificación de las variables y las relaciones que determinan
son:
VARIABLE CUALITATIVA vs. VARIABLE CUANTITATIVAS
RELACIÓN DE DEPENDENCIA
• P.e. ¿Cómo podemos determinar si existe una relación de
dependencia o independencia entre fumar y el género?
VARIABLE CUALITATIVA vs. VARIABLE CUALITATIVA
RELACIÓN DE ASOCIACIÓN

VARIABLE CUANTITATIVA vs. VARIABLE CUANTITATIVA


RELACIÓN DE CORRELACIÓN
RELACIÓN DE
DEPENDENCIA
RELACIÓN DE
DEPENDENCIA

RELACIONADOS ANALISIS DE VARIANZA DE


MULTIPLES FACTORES
NORMAL
NO RELACIONADOS ANALISIS DE VARIANZA DE
UNA SOLA VIA
CUANTITATIVA
CONTINUA
RELACIONADOS ANALISIS DE VARIANZA
POR RANGOS DE
No FRIEDMAN
CUALITATIVA NORMAL
NOMINAL
NO RELACIONADOS ANALISIS DE RANGOS DE
KRUSKALL WALLIS

RELACIONADOS ANALISIS DE VARIANZA


POR RANGOS DE
FRIEDMAN
CUANTITATIVA
DISCRETA
NO RELACIONADOS ANALISIS DE RANGOS DE
KRUSKALL WALLIS
RELACIÓN DE ASOCIACIÓN

INDEPENDIENTES CHI CUADRADO O PRUEBA


EXACTA DE FISHER
CUALITATIVA BINARIA CUALITATIVA
BINARIA
PAREADOS KAPPA Y Mc NEMAR

CUALITATIVA CUALITATIVA CHI CUADRADO


NOMINAL NOMINAL
RELACIÓN DE
CORRELACIÓN
CONCEPTOS

Quimiometría, Mongay Fernández C., Ed 8, 2005, 1184 páginas.


GRÁFICOS PARA VARIABLES
CUALITATIVAS

Diagramas de barras
• Alturas proporcionales a las frecuencias
(absoluta o relativa)
• Se pueden aplicar también a variables
discretas

Diagramas de sectores (torta, circular)


• No usarlo con variables ordinales.
• El área de cada sector es proporcional a su
frecuencia (absoluta o relativa)

Pictogramas
• Fáciles de entender.
• El área de cada modalidad debe ser
proporcional a la frecuencia. ¿De los dos, cuál
es incorrecto?.
GRÁFICOS PARA VARIABLES
CUANTITATIVAS
Son diferentes en función de que las 400
419

375

variables sean discretas o continuas.


300

Valen con frecuencia absolutas o 255

Recuento
215

relativas. 200

127

100

• Diagramas barras para v. discretas 54


24 23 17

• Se deja un hueco entre barras para 0 1 2 3 4 5 6 7 Ocho o más

Número de hijos
indicar los valores que no son
250
posibles
200

Recuento
• Histogramas para v. continuas 150

• El área que hay bajo el histograma 100

entre dos puntos cualesquiera indica 50

la cantidad (porcentaje o frecuencia)


de individuos en el intervalo. 20 40 60

Edad de l e ncue stado


80
ESTADÍSTICA DESCRIPTIVA

Um … bueno
... es ... ellos
son ...
ejem plos
ORGANIZACIÓN DE DATOS

Una tabla de frecuencia es la ordenación de la


información obtenida de una muestra, en el estudio de
una sola variable.
Cuando se dispone de un gran número de datos, es
útil distribuirlos en categorías dentro de una tabla para
facilitar el análisis.
7

6
Género Frec.
5

Hombre 4 4

2
Mujer 6 1

0
Hombre Mujer
TABLA DE DISTRIBUCIÓN DE
FRECUENCIAS

Intervalos de clase: intervalos que agrupan un conjunto de


observaciones, estos intervalos son continuos y no se traslapan.
Frecuencias absolutas (fi): Contabiliza el número de individuos
contenidos en cada intervalo de clase.
Frecuencia absoluta acumulada (Fi): es el valor acumulado de las
frecuencias absolutas.
Frecuencias relativas (porcentajes) (hi): Es la expresión relativa de
la frecuencia absoluta respecto del total.
Frecuencias acumuladas (Hi): es el valor acumulado de las
frecuencias relativas.
TABLA DE DISTRIBUCIÓN DE
FRECUENCIAS.
VARIABLE CUANTITATIVA CONTINUA
Ejemplo

Intervalos de clase Xi fi Fi hi Hi
k
1 819.71 830.16 824.94 1 1 0.05 0.05
2 830.16 840.61 835.39 2 3 0.1 0.15
3 840.61 851.06 845.84 6 9 0.3 0.45
4 851.06 861.51 856.29 7 16 0.35 0.8
5 861.51 871.96 866.74 4 20 0.2 1
Total 20 1

8
7
7
6
6
Frecuencia Absoluta

5
4
4

3
2
2
1
1

0
819.71 - 830.16 - 840.61 - 851.06 - 861.51 -
830.16 840.61 851.06 861.51 871.96
Peso de tabletas en mg (Intervalos de clase)
TABLA DE DISTRIBUCIÓN DE
FRECUENCIAS
VARIABLE CUANTITATIVA DISCRETA
¿Cuántos individuos tienen menos
de 2 hijos? Número de hijos

Porcent. Porcent.
• frec. Abs. sin hijos Frec. (válido) acum.
+ 0 419 27,8 27,8
1 255 16,9 44,7
frec. Abs. con 1 hijo 2 375 24,9 69,5 ≥50%
= 419 + 255 3 215 14,2 83,8
= 674 individuos 4 127 8,4 92,2
5 54 3,6 95,8
¿Qué porcentaje de individuos tiene 6 24 1,6 97,3
6 hijos o menos? 7 23 1,5 98,9
Ocho+ 17 1,1 100,0
• 97,3% Total 1509 100,0
¿Qué cantidad de hijos es tal que al
menos el 50% de la población tiene
una cantidad inferior o igual?
• 2 hijos
DISTRIBUCIÓN DE
FRECUENCIAS
Una vez colectados los datos, deben ser arreglados u
ordenados de tal manera que permita determinar con
rapidez los valores de las mediciones y otros aspectos
acerca de los datos. Para lo cual es necesario utilizar una
tabla de distribución de frecuencias y/o un gráfico que
describa adecuadamente las características más
importantes.
DISTRIBUCIÓN DE
FRECUENCIAS

Histogramas
Nos Permite inferir en el comportamiento de la población a través
de la gráfica de los datos colectados
HERRAMIENTAS INFORMÁTICAS

Anexo 3: Tabla de Distribución de frecuencias:


Excel:
• Datos / Análisis de datos:
• Histograma
• Estadística descriptiva
• Función: =Frecuencia (datos, grupo)
MEDIDAS DE TENDENCIA
CENTRAL Y DE DISPERSIÓN
La EXACTITUD de medida es el grado de
concordancia entre el resultado de una
medición y el valor verdadero. Se
relaciona, de forma inversa, con el error
de medida.
La PRECISIÓN es el grado de
concordancia entre resultados repetidos y
se relaciona con la existencia de errores
de tipo aleatorio.
La VERACIDAD es el grado de
concordancia entre el valor medio de las
repeticiones y el valor verdadero y se
relaciona con la presencia de errores de
tipo sistemático o desviaciones.
EXACTITUD

Ejemplo: Cuatro estudiantes realizan cada uno un


mismo análisis en el que exactamente 10,0 mL de
hidróxido de sodio exactamente 0,1 M es valorado
con ácido clorhídrico exactamente 0,1 M.
EXACTITUD

Ejemplo
MEDIDAS DE TENDENCIA
CENTRAL Y DE DISPERSIÓN

Medidas de tendencia central


• Media o promedio
• Mediana
• Moda
Medidas de variabilidad o dispersión
• Varianza
• Desviación estándar
• Coeficiente de variación, Rango,
MEDIDAS DE TENDENCIA
CENTRAL

La Media Aritmética o Promedio


Media Poblacional (Parámetro) Media muestral (Estadístico)
N n

∑x i ∑x i
μ= i =1
x= i =1

N n

La Mediana (Me) Me = X  n +1 
 
Ejemplo:  2 
Item (X) X1 X2 X3 X4 X5
Valor 32 41 52 55 59

La Moda (Mo): es el valor que se presenta con mayor


frecuencia
La Media Geométrica (MG): coma la raíz enésima del
producto de los datos: MG = n x ∗ x ∗ x ∗ ..... ∗ x
1 2 3 n
MÉTRICA EN EL ESPACIO
ESTADÍSTICO
MEDIDAS DE VARIABILIDAD

Cuantiles: valor que divide a un conjunto ordenado de datos en


dos partes con porcentajes específicos por debajo y sobre éste
valor.
P25 P50 P75

Q1 Q2 Q3

Rango: R = X máximo – X mínimo

Varianza: Varianza Poblacional Varianza Muestral

∑ (x − x)
N n

∑ (x − μ)
2 2
i i
σ2 = i =1
s2 = i =1
N n -1

Desviación estándar
Coeficiente de variabilidad (CV)
MEDIDAS DE LOCALIZACIÓN

Rango intercuartilico (RIC): Es el rango del 50% central de los


datos. RIC = Q3 – Q1
Grafico De Cajas o Box-Plot

Límite inferior Q1 Q3 Límite Superiror


Mediana(Q2)

** *

1.5 RIC 1.5 (RIC)


(RIC)

Valores atípicos Valor atípico


DATOS ATÍPICOS O ANÓMALOS

Llamados también atípicos, aberrantes, extremos u


outliers.

Parte de un pequeño grupo de observaciones que


parece ser inconsistente con el resto en una muestra
determinada. [ISO 16269-4: 2010].

Puede ser causado por la variabilidad en la medición o


puede indicar un error experimental.

Un valor anómalo debe ser primero investigado. Use


herramientas de análisis de causas.
DATOS ANÓMALOS

El modelo basado en que los datos pertenecen a


una distribución de probabilidad Normal, utiliza el
promedio y la desviación estándar:
• Chauvenet’s criterion
• Winsorizing (Dixon and Masey, 1969)
• Q Dixón
• Gráfico Box-Plot
• Regla de Huge
• Grubbs
• Prueba de desviación estandarizada (ESD)
• Regla de Hampel
CONTRASTE DE DIXON
(CONTRASTE Q)

Ventaja es que no se requiere estimar la desviación


estándar.

Determina si un valor es atípico al comparar la distancia del


sospechoso con el valor mas cercano comparándolo con el
rango total de las observaciones (Dixon, 1953).
CONTRASTE DE DIXON
(CONTRASTE Q)
CONTRASTE DE DIXON
(CONTRASTE Q)
Los valores críticos de Q para P=0.05 se encuentran en la Tabla 1.
Si el valor de Q calculado supera el valor crítico, se rechaza el
valor sospechoso. Ejemplo:
12,12; 12,15; 12,13; 13,14; 12,12 mL
1. Ordenar en forma ascendente:

12,12 12,12 12,13 12,15 13,14


x1 x2 x4 x5 (xn-1) x6 (xn)
2. Xn es el sospechoso, por lo que se usa la siguiente razón t10

3. Conclusión: Dado que el valor crítico (Tabla 1) t10 (n=5;


alfa=5%) = 0,642, se rechaza el valor sospechoso, con un 95% de
confianza.
GRÁFICO DE CAJAS O BOX-
PLOT

Un diagrama de cajas presenta gráficamente la dispersión


del 50% central en un conjunto de datos cuantitativos y la
presencia de valores muy lejanos (atípicos o extremos). En
algunos casos permite observar el tipo de asimetría. Para su
construcción se requiere de los Percentiles 25 (Q1) , 50 (Q2)
y 75 (Q3).
GRÁFICO DE CAJAS O BOX-
PLOT

Distribución Uniforme Distribución Sesgo Distribución Normal Distribución Sesgo


Derecha Izquierda
GRÁFICO DE CAJAS O BOX-
PLOT
Procedimiento
1. Se traza un rectángulo con los extremos
correspondientes al primer (Q1) y tercer
(Q3) cuartil.
2. Dentro de la caja se traza una línea vertical
para identificar a la Mediana Me (Q2).
3. Se calcula el límite inferior y el límite
superior.
• Límite inferior: Q1 – 1.5 RIC

• Límite superior: Q3 + 1.5 RIC


GRÁFICO DE CAJAS O BOX-
PLOT
4. Un dato se considera atípico si es mayor que el límite
superior o si es menor al límite inferior.

5. Se marcan con asteriscos las ubicaciones de los datos


atípicos.

6. En caso de no existir valores atípicos se trazan líneas


horizontales desde los extremos de las cajas hasta el valor
máximo y mínimo (bigote de la caja). En caso contrario el bigote
de la caja llega hasta el valor máximo y mínimo dentro de los
límites.
GRÁFICO DE CAJAS O BOX-
PLOT

Interpretación
La distribución de los datos puede ser:
• Asimétrica hacia la derecha, si Me está próxima a Q1.
• Asimétrica hacia la izquierda, si Me está próxima a Q3.
• Simétrica, si Me está al centro.
Si la caja es alargada, hay variabilidad en el conjunto de
datos.
Un dato se considera atípico si es mayor que el límite
superior o si es menor al límite inferior.
Función de distribución de
probabilidades

f(x) distribución binomial

0.2

0.18
0.16

0.14

0.12
f(x)

0.1
0.08

0.06

0.04
0.02

0
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29
n
DISTRIBUCIÓN DE
PROBABILIDAD (DP)

Definición: Una distribución de probabilidad es un modelo


matemático que relaciona el valor de la variable con la
probabilidad de que ocurra ese valor en la población
Conocer la DP para una variable aleatoria proporciona
herramientas poderosas para:
• simplificar y describir un conjunto de datos y
• para llegar a conclusiones acerca de la población de
datos, sobre la base de una muestra de datos extraídos
de la población.
TIPOS DE DISTRIBUCIONES DE
PROBABILIDAD

(a) Distribución de probabilidad para variables discretas


(b) Distribución de probabilidad para variables continuas
TIPOS DE DISTRIBUCIONES DE
PROBABILIDAD

Distribución de probabilidad para variables discretas


• Distribución Hipergeométrica
• Distribución Binomial
• Distribución de Poisson
Distribución de probabilidad para variables continuas
• Distribución Normal
• Distribución Normal estándar
• Distribución muestral de la media
• Distribución LogNormal
• Distribución Exponencial
• Distribución Weibull
DP VARIABLES DISCRETAS

Definición: Cuando el parámetro que se mide solo puede


tomar ciertos valores, como los enteros 0, 1, 2,. . . , la
distribución de probabilidad se denomina distribución
discreta. Por ejemplo, la distribución del número de no
conformidades o defectos en los envases de embalaje de
un producto sería una distribución discreta.
DP VARIABLES DISCRETAS
Ejemplo: En promedio, el 1% de frascos de reactivos fabricados no
se ajustan a especificaciones. Cada hora, se selecciona una
muestra aleatoria de 25 frascos y se clasifica cada frasco en la
muestra como conformes o no conformes. Si x es la variable
aleatoria que representa el número de frascos no conformes en la
muestra, entonces la distribución de probabilidad de x es:

Esto es una distribución discreta,


dado que el número observado
de no conformes es x = 0, 1, 2,
… 25 y es llamada Distribución
Binomial. Cuál es la probabilidad
de encontrar UNA o MENOS
unidades No Conformes en la
muestra:
DP VARIABLES CONTINUAS

Definición: Cuando la variable que se mide se expresa en


una escala continua, su distribución de probabilidad se
denomina distribución continua. La distribución de
probabilidad del grosor de la capa metálica es continua.
DP VARIABLES CONTINUAS

Ejemplo: Supongamos que x es una variable aleatoria que representa


los contenidos reales en onzas de una bolsa de granos de un reactivo.
Se supone que la distribución de probabilidad de x es

Esta es una distribución continua, ya que el rango de x es el intervalo


[15.5, 17.0]. Esta distribución se llama distribución uniforme. Tenga en
cuenta que el área bajo la función f (x) corresponde a la probabilidad,
de modo que la probabilidad de que una bolsa contenga menos de 16.0
onzas
FUNCIÓN DE DISTRIBUCIÓN DE
PROBABILIDADES
Distribución de probabilidad continua
Variable aleatoria continua

Uniendo los puntos medios de cada barra del histograma


se forma un polígono de frecuencias.
El area total bajo la curva es 1
DISTRIBUCIÓN NORMAL

Definición: Una variable aleatoria continua X tiene una


distribución Normal si su función de densidad tiene la
siguiente expresión.
2
1  x −µ 
−  σ 
f ( x) =
1 2
e para −∞ < x < ∞
2π σ

siendo µ una constante cualquiera, µ ∈ R y σ2 una


constante positiva, σ > 0. Es una curva simétrica en
forma de campana, asintótica al eje de las abcisas, que
alcanza su valor máximo en x = µ, siendo f(µ)=y tiene
dos puntos de inflexión: en x = µ- σ y en x = µ+ σ, y
prácticamente f(x) es nula para x < µ - 4. σ y para x
> µ + 4. σ .
DISTRIBUCIÓN NORMAL

Los parámetros son µ y σ, que representan la media y la


dispersión de la variable X.
La notación utilizada es X ~ N (µ , σ )
La esperanza y la variancia son:
Propiedades: E(x)= µ V(x)= σ2

f(x)
0.35
0.3
µ=5
0.25
σ = 1.2
0.2
0.15
0.1
0.05
0 Título del eje
0 1 2 3 4 5 6 7 8 9 10 11
DISTRIBUCIÓN NORMAL

Características:

Es simétrica respecto a su media .

La media, la mediana y la moda son todas iguales.

El área total bajo la curva sobre el eje de las X es una


unidad de área
DISTRIBUCIÓN NORMAL

La curva es simétrica respecto a µ y cuanto mayor sea el


valor de mayor es la variabilidad de la curva (más ancha
en su base), como se muestra en la Figura.
DISTRIBUCIÓN NORMAL

Aproximadamente el 68,3 % de los valores de la población


caen dentro de ± 1σ de la media, aproximadamente el 95,4
% de los valores caen dentro de ± 2σ de la media, y
aproximadamente el 99.7% de los valores caen dentro de ±
3σ de la media.
Valor
k Intervalo AUC 0.399
Medio µ

Frecuencia Relativa (fracción)


0,6745 µ ± 0,6745 σ 50%

de Ocurrencia
1,0 µ±1σ 68,3%
1,96 µ ± 1,96 σ 95% 0.242

2,0 µ ± 2,0 σ 95,5%


0.054
µ- µ- µ- µ+σ µ+ µ+
2,58 µ ± 2,58 σ 99% 68.3% de los resultados a σ de µ

3,0 µ ± 3,0 σ 99,73% 95.4% de los resultados a 2σ de µ

99.7% de los resultados a 3σ de µ


DISTRIBUCIÓN NORMAL
ESTÁNDAR

Cualquier variable normal X puede ser transformada en


una variable normal estándar Z mediante operaciones
matemáticas. Ese proceso de transformación se denomina
estandarización.
Sea X ~ N (µ , σ ) por lo tanto E(x)= µ y V(x)= σ2
La variable normal estándar la simbolizamos con Z y se
define:
X−µ
Z= y tiene E ( Z ) = 0 y V (Z) = 1
σ

La función de densidad de esta variable Z está dada por :


− 1 z2
1
f ( z) = e 2 para − ∞ < z < ∞

DISTRIBUCIÓN NORMAL
ESTÁNDAR
HERRAMIENTAS INFORMÁTICAS

También puede calcularse el valor z utilizando hojas de cálculo de


Excel, con la función DISTR.NORM.ESTAND(Z).
DISTRIBUCIÓN NORMAL
ESTÁNDAR

Ejemplo: Se sabe que históricamente que el promedio


de lectura de un determinado instrumento es de 50 mg
y desviación estándar de 5 mg. ¿Qué proporción de las
lecturas se esperaría que tuvieran mas de 58,25 mg?

Unidades mg

(x − µ)
Z=
σ

Estandarizado
unidades Z
DISTRIBUCIÓN NORMAL

VISUALMENTE:
• Histograma
• Box plot
• Gráfico en papel de probabilidad
• Gráfica de Frecuencia acumulativa
NUMÉRICAMENTE:
• Curtosis
• Asimetría
ESTADÍSTICOS:
• Kolmogorov-Smirnov
• Anderson Darling
• Shapiro-Wilk´s (Muestras < 30)
• Prueba de Lilliefors
INICIO
FLUJOGRAMA NORMALIDAD
Datos Orignales

Prueba de
Normalidad:
- AD
- RJ
- KS

Transformación Box-
Cox: Transfor
¿Tiene No - Raiz cuadrada No ¿Tiene No ¿Tiene No
Distribució Distribució mación Distribució
- Inverso 1/x
n Normal? n Normal? JOHNS n Normal?
- Logaritno
Neperiano ON
- Logaritmo base 10

SI SI SI
Pruebas Pruebas Pruebas
Paramétricas Paramétricas Paramétricas

Pruebas NO IDENTIFICAR EL
Paramétricas; TIPO DE
El distribucion al que
DISTRIBUCIÓN DE
se asemeja
PROBABILIDAD
ASOCIADO

FIN
PRUEBA DE NORMALIDAD O
BONDAD DE AJUSTE

Las pruebas de bondad de ajuste sirven para


comprobar si una serie de datos muestrales se ajustan
a una distribución de probabilidad conocida.
Pruebas basadas en la Función de Distribución
Empírica
Prueba de Anderson- Darling (AD) 1954
Prueba de Kolmogorov-Smirnov (KS) 1933
Pruebas de correlación y regresión
Prueba de Ryan-Joiner (RJ)
Prueba de Shapiro-Wilk (SW) 1965
PRUEBA DE NORMALIDAD
AJUSTE DE DATOS CON OTRAS
DISTRIBUCIONES DE
PROBABILIDAD
MINITAB

Distribución Anderson-Darling Valor p


Exponencial 9.599 p < 0.003
Normal 0.641 p < 0.089
Weibull de 3 0.376 p < 0.432
parámetros

Exponencial Normal Weibull de 3 parámetros

71
AJUSTE DE DATOS CON OTRAS
DISTRIBUCIONES DE
PROBABILIDAD
MINITAB
DISTRIBUCIÓN MUESTRAL DE LA
MEDIA

https://www.youtube.com/watch?v=xZmFqLHIFJk
DISTRIBUCIÓN T DE STUDENT

Cuando no disponemos de información de la desviación


estándar de la población, no es posible calcular Z.
Para esto calculamos el estadístico T.
x−µ
t=
s
n
Donde s es la desviación estándar muestral calculada con
n-1 grados de libertad.
DISTRIBUCIÓN T DE STUDENT

La distribución T tiene en cuenta la incertidumbre en la


estimación de la desviación estándar de la población,
porque en realidad la tabla de T contiene las
distribuciones de probabilidades para distintos grados de
libertad.
DISTRIBUCIÓN BINOMIAL

Se caracteriza por que la variable aleatoria X cuenta el número de


“éxitos” que ocurren al realizar “n” ensayos independientes. Cada
ensayo presenta solo dos posibilidades de ocurrencia: éxito y
fracaso, donde la probabilidad de lo que se asume como éxito
permanece constante.

 n  k n−k
P[ X = k ] =   p q , 0 ≤ k ≤ n
k 

Media: μ = n p Varianza: σ2 = n p q
DISTRIBUCIÓN BINOMIAL

Funciones de Excel: “DISTR_BINOM”.


INFERENCIA
ESTADÍSTICA
INFERENCIA ESTADÍSTICA

Tipos de estimaciones
A) Estimación puntual

Un solo número se utiliza para estimar un parámetro


desconocido. Para ser útil debe de estar acompañado del
error.

Ejemplo:
Para la evaluación de 20 unidades del lote, la media es
49,8 mg, el mejor estimador del verdadero valor de la
media del lote es 49,8 mg.
INFERENCIA ESTADÍSTICA …

(A) De la media poblacional


La media muestral estima a la media poblacional µ
x
(B) De la varianza y la desviación estándar
S2 estima → σ2
S estima → σ

(C) De la proporción poblacional


p → π
INFERENCIA ESTADÍSTICA …

B) Estimación por intervalo


Una estimación por intervalos consta de dos valores
numéricos (LIC, LSC) que definen un intervalo que, con
un grado específico de confianza, se considera que
incluye al parámetro por estimar.
El ancho del intervalo depende de la las propiedades de
la población, el parámetro a estimar, y el grado de
certeza deseado (Nivel de confianza 1 - α)
Ejemplo:
Cuan cercano piensas que esta 49,8 mg de la verdadera
media? Podemos decir que la verdadera media de la
potencia del lote está entre 47,8 y 51,8 mg con una
probabilidad del 95%.
INFERENCIA ESTADÍSTICA …

Nivel de confianza: probabilidad que asociamos


con una estimación del intervalo. Se representa
con (1 - α). Los niveles más utilizados son 0,90
0,95 y 0,99.

Componentes para la estimación del intervalo:

Estimador ± (Coeficiente de confiabilidad) x (error estándar)

= x ±Zo σ
√n
INFERENCIA ESTADÍSTICA …

Para entender mejor el concepto de IC


De un lote de soluciones orales, para determinar su contenido
de p.a. es posible tomar muchas muestras de tamaño n (20),
cada media estimada a partir de cada muestra puede generar su
IC

LSC
µ Intervalo
x De Confianza
95%

LIC
1 2 3 4 5 6 7 8
Número de Muestras
Para un intervalo de confianza de 95 % 19 de 20 de tales
intervalos incluirán la verdadera media µ.
INFERENCIA ESTADÍSTICA …

Intervalo para la media poblacional (µ)

x = ± Zo σ
√n
x-µ
pero Z =
σ -Z0 Z0
n
P − Z0 ≤ Z ≤ Z0 = 1−α
 x−µ 
P − Z 0 ≤ ≤ Z0  = 1−α
 σx 
 σ σ 
P x − Z0 ≤ µ ≤ x + Z0  = 1−α
 n n 
INFERENCIA ESTADÍSTICA …

A. Cuando la σ2 es conocida y muestra es grande (n>30)

IC = x± Z o σ / √n Zo = Z (α/2)

B. Cuando la σ2 es desconocida y muestra es grande (n>30)

x
IC = ± Zo S / √n Zo = Z (α/2)

x
C. Cuando la σ2 es desconocida y muestra es pequeña (n<30)

IC = x± t o S / √n to = t (α/2, n-1)
INFERENCIA ESTADÍSTICA …

Intervalo para la Varianza poblacional (σ2)

IC (σ2 ) = (n - 1) S2 X21 = X2(α/2)


X2 X22 = X2(1 - α/2)

α/2
α/2

X21 X22
INFERENCIA ESTADÍSTICA …

Intervalo de confianza para la proporción poblacional (π)

IC (π) = p ± Zo p ( 1 – p) Zo = Z (α/2)
n

Donde p es la proporción de éxitos en la muestra


aleatoria de tamaño n procedente de una población con
una proporción π.

-Z0 Z0
INFERENCIA ESTADÍSTICA …

Ejemplo 1. ISO 14644-1999[1]


INFERENCIA ESTADÍSTICA …

Intervalos de Confianza
PRUEBA DE HIPÓTESIS
PRUEBA DE HIPÓTESIS

Hipótesis: Suposición acerca del parámetro

Hipótesis planteada o nula (Hp ó H0)


Es la suposición que el parámetro tome un
determinado valor.

Hipótesis alternativa (Ha o H1)


Es el complemento de la hipótesis nula. Se acepta
cuando se rechaza la hipótesis nula.
PRUEBA DE HIPÓTESIS …

Prueba H. Bilateral Prueba H. Unilateral Prueba H. Unilateral


Derecha Izquierda

Ho : µ = µ 0 Ho : µ ≤ µ 0 Ho : µ ≥ µ 0
H1 : µ ≠ µ 0 H1 : µ > µ 0 H1 : µ < µ 0

La condición “igual” siempre se considera en la hipótesis


nula

Una prueba de hipótesis permite no rechazar o rechazar


si determinadas afirmaciones son ciertas o falsas en
función de los datos observados en una muestra.
PRUEBA DE HIPÓTESIS …

Estudio Hipótesis Nula


Efecto de la terapia con una droga sobre Ho: µ1 = µ2
los niveles comparados con el placebo Ho = µ1 - µ2 = 0

EL efecto de un antibiótico sobre tasa de cura Ho: p = 0,8


El promedio del peso de tabletas para el Control
Ho: µ = 300 mg
de calidad
Prueba para ver si dos tratamientos difieren Ho: µ1 ≠ µ2
PRUEBA DE HIPÓTESIS …

Objetivo de la prueba de hipótesis


El propósito de la prueba de hipótesis no es
cuestionar el valor calculado del estadístico
(muestral), sino hacer un juicio con respecto a
la diferencia entre estadístico de muestra y un
valor planteado del parámetro.
PRUEBA DE HIPÓTESIS …

Nivel de significación (α)


Si suponemos que la hipótesis planteada es
verdadera, entonces, el nivel de significación
indicará la probabilidad de no aceptarla, es decir,
estén fuera del área de aceptación.

α/2 (1 - α) α/2
Zona de
Aceptación

-Z0 Z0
PRUEBA DE HIPÓTESIS …

El nivel de confianza (1-α),

indica la probabilidad de aceptar la hipótesis


planteada, cuando es verdadera en la población.

α/2 (1 - α) α/2
Zona de
Aceptación

-Z0 Z0
PRUEBA DE HIPÓTESIS …

Nivel de signficación calculado (valor p)

Es un nivel de significación calculado a partir de la estadística


de prueba.
A diferencia del nivel de significación α, que es obtenido en las
tablas estadísticas, este nivel de significación es calculado a
partir de los datos de la muestra.
Es reportado por los programas computacionales como el SPSS
con la denominación “sig”.
Es mencionado en los artículos científicos como valor p o
simplemente “p”
PRUEBA DE HIPÓTESIS …

Cualquiera sea la decisión tomada a partir de una


prueba de hipótesis, ya sea de aceptación de la Hp o
de la Ha, puede incurrirse en error:

La muestra seleccionada conduce a

EN LA POBLACIÓN ACEPTAR Hp RECHAZAR Hp

Hp es cierta Decisión correcta Error tipo I ó α


(1-α)
Hp es falsa Error tipo II ó β Decisión correcta
(1-β)
PRUEBA DE HIPÓTESIS …

En la práctica se establece el nivel α y para disminuir el


Error β se incrementa el número de observaciones en la
muestra, pues así se acortan los limites de confianza
respecto a la hipótesis planteada.

Zona de rechazo
Hp µ ≤ µo (1 - α)
si Hp es cierta α
Ha µ > µo
µo
PRUEBA DE HIPÓTESIS …

Tipos de prueba
a) Prueba bilateral o de dos extremos: la hipótesis
planteada se formula con la igualdad

Ejemplo
α/2 (1 - α) α/2

Hp : µ = 200 Zona de
Aceptación
Ha : µ ≠ 200
-Z0 Z0
PRUEBA DE HIPÓTESIS …

b) Pruebas unilateral o de un extremo: la hipótesis


planteada se formula con ≥ o≤.
Hp : µ ≥ 200 Hp : µ ≤ 200
Ha : µ < 200 Ha : µ > 200

α
α (1 - α) (1 - α)
PRUEBA DE HIPÓTESIS …

Regla de decisión basada en el valor p


Si el valor p es menor o igual al nivel de significación, rechazar
Ho.
p ≤ α rechazar Ho

Si el valor p es mayor que el nivel de significación, se concluye


que la muestra no provee evidencia significativa para rechazar
la hipótesis nula (Ho).

p > α NO rechazar Ho
COMPARACIÓN DE
MEDIAS
COMPARACIÓN DE MEDIAS

CASO I: Prueba de la media para una simple población, prueba de


una simple media

Media muestral Media Hipotética


Promedio de la potencia de Potencia del rotulado
tabletas de n tabletas
Promedio de la Disolución de n Especificaciones de Control de Calidad
tabletas
Proporción de pacientes curados Tasa de cura basada en una terapia
por una nueva droga previa con drogas similares
Niveles promedio de colesterol Valor estándar basado en una gran
de n pacientes bajo terapia cantidad de datos colectados por un
laboratorio clínico
Promedio de la reducción de la Pormedio de reducción hipotético
presión en n ratas en un estudio considerado para ser de interés
preclínico biológico y clínico
PRUEBA DE UNA SOLA MEDIA

Procedimiento:
1. Formulación de la Hipótesis
2. Nivel de significación (α)
3. Selección y cálculo de la prueba estadística
4. (Z, t, X2 ó F)
5. Regiones críticas
6. Desición estadítica
7. Conclusiones
8. Los supuestos son:
• la población está normalmente distribuida.
• la muestra ha sido seleccionada al azar.
PRUEBA DE UNA SOLA MEDIA …
Regiones críticas
Hp: µ = µo
 Prueba bilateral
Ha: µ1 ≠ µo
α/2 (1 - α) α/2
Zona de Zona de Zona de
rechazo Aceptación rechazo
-Z0 Z0 Hp: µ ≤ µo
 Prueba unilateral Ha: µ1 ≥ µo

α
Zona de Hp: µ ≥ µo
Aceptación Zona de
Ha: µ1 ≤ µo
(1 - α) rechazo
PRUEBA DE UNA SOLA MEDIA …

1. Si varianza poblacional (σ2) es conocida


x -µ
Ζc =
σx
σ /√n
2. Si σ2 es desconocida y muestra grande (n>30)
x -µ
Ζc =
σx
s /√n
3. Si σ2 es deconocida y muestra pequeña (n <30)

x -µ
Ζtcc =
σx
s /√n
CASO II: Comparación de dos medias independientes

Estudios Clínicos La droga activa comparada a una


droga estándar o placebo; dando
el tratamiento a personas
diferentes, un tratamiento por
persona.
Estudios Preclínicos Comparación de la droga para su
eficacia y/o toxicidad con
tratamientos dados a diferentes
animales
Comparación de atributos Disolución de tabletas, potencia,
de productos de dos lotes peso, etc. de dos lotes
distintos
COMPARACIÓN DE DOS MEDIAS
INDEPENDIENTES

Formulación de hipótesis
Prueba bilateral Prueba unilateral
Hp: µ1 − µ2 = µo Hp: µ1 − µ2 ≤ µo

Ha: µ1 − µ2 ≠ µo Ha: µ1 − µ2 ≥ µo

Hp: µ1 − µ2 ≥ µo
µ1 x
1 Ha: µ1 − µ2 ≤ µo

µ2 x
2
COMPARACIÓN DE DOS MEDIAS
INDEPENDIENTES

1. Si las varianzas poblacionales (σ1 y σ2) son


conocidas
x1 − x 2
Zc =
σ 12 σ 22
+
n1 n2
2. Si las varianzas (σ1 y σ2) son desconocidas y
muestra grande (n >30)

x1 − x 2
Zc =
s12 s22
+
n1 n2
COMPARACIÓN DE DOS MEDIAS
INDEPENDIENTES

3. Si las varianzas (σ1 y σ2) son desconocidas pero


iguales
x1 − x 2
tc =
s 2p s 2p
+
n1 n2

4. Si las varianzas (σ1 y σ2) son desconocidas pero


desiguales
x1 − x 2
tc = 2 2
s s
1
+ 2
n1 n2
COMPARACIÓN DE DOS MEDIAS
INDEPENDIENTES
Donde: Varianza ponderada

(n1 − 1) s + (n2 − 1) s
2 2
s =
2 1 2
n1 + n2 − 2
p
COMPARACIÓN DE DOS MEDIAS
INDEPENDIENTES

Prueba de homogeneidad para dos varianzas


Formulación de la hipótesis
Hp: σ21 = σ22
Ho: σ21 ≠ σ22 F1 = F(α/2, n2 - 1, n1 - 1)

F2 = F(1 - α/2, n1 - 1, n2 - 1)

α/2
α/2
Fc = s21
s 22

F1 F2
Prueba para la comparación de medias de muestras
relacionadas
Media muestral Media Hipotética
Estudios clínicos Cada paciente toma la droga en
diferentes momentos (estudio cruzado)
Cada paceinte toma cada droga
simultáneamente, p.e. un unguento es
aplicado a diferentes partes de un
mismo cuerpo.
Desarrollo analítico El mismo analista ensaya todas las
muestras
Cada laboratorio ensaya todas las
muestras en un estudio colaborativo
Cada método es aplicado a una muestra
homogénea
Estudios de estabilidad Ensayos en determinados tiempos del
mismo recipiente o envase
COMPARACIÓN DE MUESTRAS
RELACIONADAS

Formulación de hipótesis
Prueba bilateral Prueba unilateral
Hp: µ1 − µ2 = µo Hp: µ1 − µ2 ≤ µo

Ha: µ1 − µ2 ≠ µo Ha: µ1 − µ2 ≥ µo

Hp: µ1 − µ2 ≥ µo
Ha: µ1 − µ2 ≤ µo
 Prueba estadística
HERRAMIENTAS INFORMÁTICAS

Calculadora de prueba de Mann Whitney (para datos no


apareados), Calculadora de prueba de rango firmado
Wilcoxon (para datos emparejados)
http://astatsa.com/WilcoxonTest/
ANÁLISIS DE VARIANZA
 ANOVA DE UNA VIA
 ANOVA DE DOS VIAS
ANOVA DE UNA VIA
 Se utiliza cuando se quiere comparar más de 2
promedios.
 La prueba “t” es un caso especial de ANOVA donde se
comparan solo 2 promedios.
 La Hipótesis Nula es

H o : µ1 = µ 2 = µ3 = ...
Donde µ1 es el promedio de un tratamiento
 ANOVA es una técnica que separa la variabilidad total
en componentes:
SUPOSICIONES DEL ANOVA

La distribución F también se usa para probar la


igualdad de más de dos medias con una técnica
llamada análisis de variancia (ANOVA). El ANOVA
requiere las siguientes condiciones:
A. La población que se muestrea tiene una
distribución normal (residuales)
B. Las poblaciones tienen desviaciones estándar
iguales (Homogeneidad de var)
C. Las muestras se seleccionan al azar y son
independientes
ANOVA DE UNA VÍA
Suma de cuadrados total

Suma de cuadrados debido a la diferencia de los


tratamientos (Suma de cuadrados dentro – entre - los
tratamientos)
t
SCentre = ∑ nοbservaciones ( x tratamiento − x total ) 2
j =1
Suma de cuadrados del Error (Suma de cuadrados Dentro –
Intra- de los tratamientos)
t r
SCdentro = ∑∑ ( xobservación − x tratamiento ) 2
j =1 i =1
PRUEBA DE HIPÓTESIS

• Hipótesis nula: las medias de las poblaciones son


iguales. H o : µ1 = µ 2 = µ3 = ...
• Hipótesis alterna: al menos una de las medias es
diferente.
• Estadístico de prueba:
F = (variancia entre muestras) .
(variancia dentro de muestras).
• Regla de decisión: para un nivel de significación α,
la hipótesis nula se rechaza si F calculada es mayor
que F tabular con grados de libertad en el
numerador y en el denominador.
PRUEBA DE HIPÓTESIS

Regla de decisión

Zona de
Aceptación
Ho
Zona de
Rechazo Ho

F tabla
ANOVA DE UNA VÍA

Suponga que se dispone de 15 unidades para comparar


tres métodos, 5 unidades para cada ensayo.

Resultados de ensayos de comparación de


Tres Métodos Analíticos

Método A Método B Método C


102 99 103
101 100 100
101 99 99
100 101 104
102 98 102
Promedio 101.2 99.4 101.6
Desv. Estandar 0.84 1.14 2.07
VALIDACIÓN PROSPECTIVA

ANOVA para las unidades finales

ANÁLISIS DE VARIANZA
Origen de Promedio de
Suma de Grados de Valor crítico
las los F Probabilidad
cuadrados libertad para F
variaciones cuadrados
Entre grupos 2.86666667 2 1.43333333 0.28330893 0.75549876 3.35413083
Dentro de los 136.6 27 5.05925926

Total 139.466667 29
LINEALIDAD E INTERVALO
LINEALIDAD E INTERVALO

El comportamiento lineal de un método, debe ser


demostrado dentro del intervalo en el cual es probable
que se trabaje.

Análisis Intervalo de trabajo


Ensayo del principio activo 80-120 % de la concentración de trabajo
Determinación de impurezas 50-120% de la especificación
Ensayo de Uniformidad de contenido 70-130% de la concentración de trabajo, o
alguna modificación del mismo,
dependiendo de la naturaleza de la forma
dosificada
Prueba de disolución ± 20 % sobre la especificación, en el caso
de la liberación controlada, en que existe
una especificación mínima al inicio de la
prueba y una máxima al finalizar, el
intervalo debe ser menos un 20% de la
especificación mínima y más 20% de la
especificación máxima.
Linealidad del sistema y del
método
LINEALIDAD E INTERVALO DEL
SISTEMA Y DEL MÉTODO

1. Preparar en forma independiente soluciones de


estándar al menos 5 niveles de concentración,
dentro de los intervalos establecidos para cada tipo
de análisis.
2. Repetir en forma independiente por lo menos 3
veces, para evaluar estadísticamente.
3. Se grafica la respuesta de la medición, contra la
concentración del analito. Se verifican datos con
comportamiento atípico mediante mediciones
adicionales.
LINEALIDAD

RANGO
¿CÓMO PROBAR LA
LINEALIDAD?

1. Significancia del Coeficiente de correlación (r)


2. Significancia del MRLS
3. Significancia del Intercepto (a)
4. Significancia de la Pendiente (b)
5. Normalidad de Residuales

Intercepto
y
y = bx + a

Pendiente

x
ESTADÍSTICA DE LA LINEALIDAD …

β0 y β1 son parámetros poblacionales,


y = β 0 + β1x + ε por lo tanto se estiman con los datos.


 Ecuación de recta: = bx +a
 Excel como herramienta útil para graficar: Gráfico de
XY (Dispersión)
 La pendiente (b) relacionada con la sensibilidad.
 Intercepto (a) relacionada con el Error sistemático.
 Coeficiente de correlación lineal de Pearson (r): es
útil para determinar si hay relación lineal entre dos
variables.
1. EL COEFICIENTE DE
CORRELACIÓN (R)
Se usa para medir la intensidad de la asociación entre
dos variables.
 Coeficiente de correlación (r) > 0,999 n∑ xi yi − (∑ xi )(∑ yi )
r=
y determinación (r2) > 0,990
[n∑ x − (∑ x ) ][n∑ y − (∑ y ) ]
2
i i
2 2
i i
2

12

y = 43.211x - 78.897
10 R² = 0.9746

8
r=0.9872
Respuesta

y = 6.6197x - 9.5701
2 R² = 0.9809
r=0.9904
0
1.850 1.900 1.950 2.000 2.050 2.100

Log (Conc)
2. EVALUACIÓN DEL MRLS:
ANÁLISIS DE VARIANZA ANOVA:

Excel: Herramientas / Análisis de datos / Regresión

Antes se debe cumplir supuestos:

1. Homogeneidad de Varianzas

2. Normalidad de los residuales (gráficamente)

(e=Y-Ŷ se le denomina residuo o error residual)


2. EVALUACIÓN DEL MRLS:
HOMOGENEIDAD DE VARIANZA

Se aplica el test de COCHRAN (G exp), el cual indica si


la concentración tiene alguna influencia en la variabilidad
de los resultados.
2
s máxima
Gexp = 2 2 2 2 2
s1 + s2 + s3 + s4 + s5
s2: varianza de cada grupo de concentración
s2 máxima: varianza máxima de los grupos
Las varianzas no deben ser estadísticamente diferentes
entre sí para el grado de significancia elegido
Gexp < G tablas
2. EVALUACIÓN DEL MRLS:
RESIDUOS
2. EVALUACIÓN DEL MRLS:
RESIDUOS
CRITERIOS PARA
RESIDUALES
Gráfico de los residuales
Número de residuales 20
positivos aproximadamente 15

igual al número de residuales 10

negativos 5

Residuos
0

•Los residuales están 0.000000


-5
0.200000 0.400000 0.600000 0.800000

distribuidos aleatoriamente -10

-15
•Los residuales tienen todos -20

aproximadamente el mismo 0.25603466

valor absoluto
•Los residuales no muestran
tendencias
2. EVALUACIÓN DEL MRLS: RESIDUOS -
VALIDACIÓN DE SUPUESTOS ANÁLISIS DE
RESIDUALES
RESULTADOS

Observamos que los puntos están dispersos alrededor


de la línea, por lo tanto no hay razón para dudar de la
suposición de linealidad
2. EVALUACIÓN DEL MRLS: RESIDUOS -
VALIDACIÓN DE SUPUESTOS ANÁLISIS DE
RESIDUALES

No hay defectos en el modelo


2. EVALUACIÓN DEL MRLS: RESIDUOS -
VALIDACIÓN DE SUPUESTOS ANÁLISIS
DE RESIDUALES

Este gráfico indica que las varianzas de los errores no


es constante
2. EVALUACIÓN DEL MRLS: RESIDUOS -
VALIDACIÓN DE SUPUESTOS ANÁLISIS
DE RESIDUALES

Este gráfico indica que las varianzas de los errores no


es constante
2. EVALUACIÓN DEL MRLS: RESIDUOS -
VALIDACIÓN DE SUPUESTOS ANÁLISIS
DE RESIDUALES

Este gráfico indica no linealidad


2. EVALUACIÓN DEL MRLS: RESIDUOS -
VALIDACIÓN DE SUPUESTOS ANÁLISIS DE
RESIDUALES
RESULTADOS

La gráfica de la probabilidad confirma la suposición de


residuos normalmente distribuidos, porque los puntos
trazados están muy cerca de la línea recta.
2. EVALUACIÓN DEL MRLS:
ANOVA REGRESIÓN
Análisis de varianza de Regresión

SSR: Suma de cuadrados debido a la regresión


SSE: Suma de cuadrados debido a las replicas dentro de los grupos
SST: Suma de cuadraos total
CMR: Cuadrado medio (Varianza) de la regresión
CME: Cuadrado medio (Varianza) del error o residual
2. EVALUACIÓN DEL MRLS:
ANOVA REGRESIÓN
Análisis de varianza de Regresión
1. Verificar los Supuestos
2. Plantear las Hipótesis estadísticas
Ho : β = 0 El modelo MRLS NO proporciona un buen ajuste a los
datos
H1: β ≠ 0
3. Calcular el estadístico: Fc ó razón de varianzas
CMR
4. Determinar el valor de contraste de Ftab(α/2, gl); gl = n-2 Fc =
CME
5. Decisión: Si Fcal > Ftab ó si p < 0,05 Se rechaza la Ho.
Valor
Fc p

S yx2
3. EVALUACIÓN DE LA RECTA:
PRUEBA DE LINEALIDAD

3.1 Coeficiente de variación de los factores de respuesta (f) < 5%

lectura(respuesta ) sf
f = CV = *100
concentración f

Sf: Desviación estándar de los factores de respuesta


f Promedio de los factores de respuesta
3.2 Significancia estadística de la desviación estándar de la
pendiente (Sb)
texp > ttablas El intervalo NO debe incluir a CERO

b
texp = b ± t * Sb
Sb
3. EVALUACIÓN DE LA RECTA:
PRUEBA DE PROPORCIONALIDAD

3.3 Si la recta pasa por el origen de las coordenadas, determinado


si la variable independiente (a) es significativamente distinta de
cero
Sa Desviación estándar del residual
texp < ttablas El intervalo SI debe incluir a CERO

texp =
a a ± t * Sa
Sa

La ordenada tiene que ser estadísticamente igual a cero.


3. EVALUACIÓN DE LA RECTA:
PRUEBA DE LINEALIDAD Y
PROPORCIONALIDAD - EXCEL

a Sa

Inferior Superior
Coeficientes Error típico Estadístico t Probabilidad Inferior 95% Superior 95%
95.0% 95.0%
Intercepción -0.99855413 4.304370996 -0.23198607 0.820160715 -10.2975823 8.30047404 -10.2975823 8.30047404
Variable X 1 10772.85111 20.12784363 535.2213237 1.27703E-29 10729.36755 10816.33467 10729.36755 10816.33467

b
Sb
COMPARACIÓN DE 2 RECTAS
REGRESIÓN
 Cuando se compara una nueva metodología con uno tradicional,
es necesario comparar su comportamiento en la dosis respuesta.
Regresión Lineal Múltiple
 Problemas: Linealidad de la dosis respuesta, Paralelismo de ambas
metodologías, Determinación de la concentración relativa
Recta A: Ya = αa + βa X
Recta B: Yb = αb + βb X
 ¿Las dos rectas tienen la misma pendiente? (hipótesis de
paralelismo): Ho: βa = βb
 ¿Las dos rectas tienen el mismo valor de origen?:
 Ho: αa = αb
 ¿Las dos rectas coinciden?:
 Ho: βa = βb = βT
 Ho: αa = αb = α T
COMPARACIÓN DE 2 RECTAS
REGRESIÓN
Curso
“Herramientas
Estadísticas Aplicadas a
Laboratorios de Ensayo”

 capacitacion@astecal.com.pe

S-ar putea să vă placă și