Sunteți pe pagina 1din 68

REPÚBLICA BOLIVARIANA DE VENEZUELA

UNIVERSIDAD DEL ZULIA


DIVISIÓN DE POSTGRADO INGENIERÍA
CÁTEDRA: METROLOGÍA.

UNIDAD 3. FUNDAMENTOS ESTADISTICOS

Autor:
Andrea E. García P.
C.I.: 23.866.547

Maracaibo, noviembre de 2019.


CONTENIDO

INTRODUCCIÓN

UNIDAD 3.- Fundamentos Estadísticos

3.1.- Conceptos Básicos de Probabilidad

3.2.- Distribuciones de probabilidad

3.2.1. Normal.
3.2.2. Exponencial
3.2.3. Welbull

3.3- Herramientas Estadísticas para el Análisis de Datos

3.3.1. Histogramas
3.3.2. Inferencia Estadística
3.3.3. Intervalos de Confianza
3.3.4. Prueba de Hipótesis
3.3.5. Análisis de regresión

3.4.- Medición de la Calidad en el Diseño

3.5.- Confiabilidad

3.6.- Predicción de la Confiabilidad Basada en en la distribución de Welbull

3.7.- Límites de Especificaciones

3.8.- La Habilidad del Proceso

3.9.- Columbia

3.10.- Especificaciones 105

CONCLUSIONES
INTRODUCCIÓN

Cualquier estudio, análisis o experimento requiere de la obtención de cierta cantidad


de datos para dar inicio a estos. Sin embargo, en su mayoría es necesario aplicar
estadística para determinar el comportamiento que con mayor frecuencia ocurre o para
comprobar conclusiones generadas con anticipación. En este sentido los científicos,
ingenieros, contadores, médicos, en general los profesionales, se han basado en la
estadística ya sea desde la creación de un producto, la publicidad de un servicio, la
fabricación de una urbanización hasta la probabilidad de contraer una enfermedad,
puesto que los métodos estadísticos permiten que se diseñen experimentos válidos y
se obtengan conclusiones confiables a partir de los datos obtenidos.

Según Navidi, W (2016) la estadística se dedica a la recopilación, el análisis y la


interpretación de datos con incertidumbre. Por tanto, un conocimiento básico de
estadística es necesario no solo para ser un científico o ingeniero eficiente, sino
también para ser un miembro bien informado de la sociedad. En tal sentido en el
presente informe se tratará los conceptos básicos de probabilidad, necesarios para el
análisis de los datos recolectados con la salvedad de asegurarse que los datos
recolectados sean los indicados. También se definirán y explicarán en detalle las
distribuciones de probabilidad Normal, Exponencial y Weibull ubicadas dentro de las
distribuciones continuas debido a que se basan en funciones continuas.

Además, se estudiarán las herramientas estadísticas para el análisis de datos como lo


son los histogramas, inferencias estadísticas o prueba de hipótesis. Con respecto al
estudio de la calidad, se describirán los métodos de medición de la misma,
seguidamente de conceptualizar la confiabilidad para luego relacionar su análisis con
la distribución de Weibull. Finalmente, se realizará el estudio de Límites de
Especificaciones, la habilidad del proceso, Columbia y especificaciones 105. Con el
objeto de aclarar conceptos fundamentales que todo ingeniero debe manejar ya sea
en el ámbito laboral como en el personal, se ilustrarán con ejemplos cada concepto
definido en la investigación para garantizar la comprensión del tema.
CONTENIDO

UNIDAD 3.- Fundamentos Estadísticos

Las grandes industrias sin importar la clase que sean o el bien o servicio que ofrezcan,
se han vuelto grandes porque han entendido lo que representa el mejoramiento
continuo de la calidad. Sin embargo, no se basa solo en comprender lo que representa
en la industria sino su relevancia en la aplicación y los cambios que amerita, pero esta
no puede darse sola, se le atribuya a se atribuye al uso de métodos estadísticos y del
pensamiento estadístico entre el personal gerencial. En tal sentido, a continuación, se
tratarán conceptos básicos estadísticos y probabilísticos que contribuyen a enriquecer
la información resultante para el mejoramiento de la calidad en toda empresa.

3.1.- Conceptos Básicos de Probabilidad

- Estadística: Según Hines, W y Montgomery, D (1996) La estadística trata de la


selección, análisis y uso de datos con el fin de resolver problemas. Existen 2 tipos de
estadística, la estadística descriptiva y la estadística inferencial.

- Estadística Descriptiva: es la rama de la estadística que trata con la


organización, el resumen y la presentación de datos.

- Estadística Inferencial: es la rama de la estadística donde se dispone de datos


resultantes de una muestra, y en ocasiones el objetivo del responsable de la
toma de decisiones es utilizar la información en la muestra para extraer una
conclusión (o una deducción) acerca de la población de la que se extrajo la
muestra.
Al conocer la diferencia entre las dos clases de estadísticas, se definirán los términos
relacionados a la estadística descriptiva:

Medidas de Tendencia Central

Navidi, W (2006) define las medidas de tendencia Central de la siguiente manera:

- Media muestral (𝑋̅): También llamada “Media Aritmética” o “Promedio”, representa la


suma de los números en la muestra, dividido entre la cantidad total de números que
hay. Sea 𝑋1, . . ., 𝑋𝑛 una muestra. La media muestral es:

𝑛
1
𝑋̅ = ∑ 𝑋𝑖
𝑛
𝑖=1
Ecuación 1. Media Muestral

Ejemplo Progresivo 1: A continuación, se tiene la muestra de los tiempos entre fallas


de una máquina Mandrinadora, y se desea conocer la Media muestral de los tiempos
entre fallas (TEF).

N° TEF (Días) N° TEF (Días)


1 42 16 12
2 20 17 6
3 86 18 18
4 184 19 59
5 17 20 1225
6 77 21 354
7 124 22 32
8 30 23 171
9 133 24 230
10 22 25 144
11 130 26 82
12 175 27 101
13 564 28 184
14 139 29 136
15 17 30 138
Cuadro 1. Tiempo Entre Fallas Mandrinadora. Elaboración propia.
Al sustituir en la Ecuación 1, se obtiene:

1
𝑋̅ = (42 + 20 + 86 + 184 + 17 + 77 + ⋯ + 138) = 155.067 𝑑í𝑎𝑠.
30

̃ : Para calcular la mediana de una muestra, se debe ordenar los


- Mediana muestral (𝑋)
valores del más pequeño al más grande. La mediana es el número del medio. Si el
tamaño de la muestra es un número par, se acostumbra a tomar a la mediana muestral
como el promedio de los dos números del medio.
Datos ordenados de Ejemplo progresivo 1: 6; 12; 17; 17; 18; 20; 22; 30; 32; 42; 59; 77;
82; 86; 101; 124; 130; 133; 136; 138; 139; 144; 171; 175; 184; 184; 230; 354; 564;
1225.

Mediana Muestral: Al ser un número par (30 valores), se tomará el promedio de los
dos números del medio (101 y 124):

101+124
𝑋̅ = = 112,5 días
2

- Moda muestral: Es el valor que tiene más frecuencia en una muestra. Si algunos
valores tienen una frecuencia igual, cada uno representa una moda.

Continuación Ejemplo progresivo 1

Para el Ejemplo, se tienen dos modas: 17 y 184. Cada uno de estos valores aparece
dos veces y el resto de los valores aparece 1 sola vez.

- Medina Recortada: Es una medida que se diseñó para que no esté afectada por datos
atípicos. Se calcula al arreglar los datos en orden, “recortar” un número igual a partir
de cada extremo y calcular la media de los restantes. Si se “recorta” el p% de los datos
de cada extremo, la media recortada resultante se denomina “media recortada un p%”.
Las más comunes son las medias recortadas al 5, 10 y 20%.
Continuación de Ejemplo progresivo 1

En el ejemplo se tiene el siguiente orden de los TEF: 6; 12; 17; 17; 18; 20; 22; 30; 32;
42; 59; 77; 82; 86; 101; 124; 130; 133; 136; 138; 139; 144; 171; 175; 184; 184; 230;
354; 564; 1225.

Se desea calcular la Media recortada a 5%, por lo que se debe eliminar 5% de los
datos a cada extremo. Se obtienen (0.05)*(30) = 1.5 observaciones, se redondea 1.5
a 2 y se recortan 2 observaciones por cada extremo. La media recortada a 5%
constituye el promedio de los 26 datos restantes:

17+17+18+⋯+230+354
𝑋̅ = = 109.42 días
26

Medidas de Dispersión

- Desviación Estándar: Es una cantidad que mide el grado de dispersión en una misma
muestra. Sea 𝑋1 , . . ., 𝑋𝑛 una muestra. La idea básica detrás de la desviación estándar
es que cuando la dispersión es grande, los valores de la muestra tenderán a alejarse
de su media, pero cuando la dispersión es pequeña, los valores tenderán a acercarse
a su media.

𝑛
1
s=√ ∑(𝑋𝑖 − ̅̅̅̅
𝑋 )2
𝑛−1
𝑖=1

- Varianza Muestral (s2): Constituye el promedio de las desviaciones al cuadrado,


excepto que se divida entre n – 1 en lugar de n.

𝑛
1
𝑠2 = ∑(𝑋𝑖 − ̅̅̅̅
𝑋 )2
𝑛−1
𝑖=1
Continuación de Ejemplo progresivo 1

Calcular la Varianza muestral y la desviación estándar en la data del ejemplo anterior.

Varianza Muestral:

1
𝑠2 = [(42 − 155.067)2 + (20 − 155.067)2 + (86 − 155.067)2 + ⋯ + (138 − 155.067)2 ]
30 − 1

s2 = 54141,10

Desviación Estándar:
S = 232,68

- Error Estándar: Es igual a la desviación estándar dividido entre la raíz cuadrada del
tamaño muestral. A partir de este valor se construye el intervalo de confianza.

𝑠
𝐸=
√𝑛

- Rango: Es la diferencia entre los valores más grandes y más pequeños en una
muestra.

R = Xmax – Xmin

Siguiendo el ejemplo progresivo, el Rango se define de la siguiente manera:

R = 1225 – 6 = 1219

Medidas de Posición

- Cuartiles: Dividen la muestra tanto como sea posible, en cuartos. Una muestra tiene
tres de aquellos. Existen diferentes formas de calcular cuartiles, el método más simple
cuando se calcula manualmente es: Sea n el tamaño de la muestra. Ordene los valores
de la muestra del más pequeño al más grande. Para encontrar el primer cuartil, calcule
el valor 0.25(n + 1). Si éste es un entero, entonces el valor de la muestra en esa
posición es el primer cuartil. Sino, tome entonces el promedio de los valores de la
muestra de cualquier lado de este valor. El tercer cuartil se calcula de la misma
manera, excepto que se usa el valor 0.75(n + 1). El segundo cuartil usa el valor 0.5(n
+ 1). El segundo cuartil es idéntico a la mediana.

Al aplicar lo anteriormente explicado en el ejemplo progresivo, se obtiene lo siguiente:

El tamaño de la muestra es n = 30. Para encontrar el primer cuartil, se calcula


(0.25)*(30) = 7.75. Por tanto el primer cuartil se encuentra determinando el promedio
del 7mo y 8vo. Puntos de datos cuando la muestra se arregla en forma creciente. Se
obtiene (22+30)/2 = 26. Para encontrar el tercer cuartil, calcule (0.75)*(30+1) = 23.25.
Se promedia los puntos de los datos 23avo y 24avo., con lo que se obtiene (171+175)/2
= 173. El segundo cuartil es igual a 112.5.

- Percentiles: El p-ésimo percentil de una muestra, para un número p entre 0 y 100,


divide a la muestra tanto como sea posible, el p% de los valores de la muestra es
menor que el p-ésimo percentil y el (100-p)% son mayores. Para calcular percentiles,
se procede de forma similar al cálculo de cuartiles. Ordene los valores de la muestra
en forma creciente, después calcule la cantidad (p/100)(n+1), donde n es el tamaño
de la muestra. Si esta cantidad es un número entero, el valor de la muestra en esta
posición es el p-ésimo percentil. Por otro lado, promedie los dos valores de la muestra
en cualquier lado. Observe que el primer cuartil es el 25avo percentil, la mediana el
50avo percentil y el tercer cuartil es el 75avo percentil.

Medidas de Forma

- Sesgo: Un histograma (gráfica que da una idea de la “forma” de una muestra) es


perfectamente simétrico si su mitad derecha es una imagen de espejo de su mitad
izquierda Caso b) en Figura 1. Al no ser simétricos, se les denomina sesgados. Un
histograma sesgado, presenta un lado, o una cola más larga que la otra. Por lo que,
un histograma con una cola larga a la derecha se dice que está sesgado a la derecha
o positivamente sesgado, caso a) Fig. 1. Un histograma con un largo, o una cola más
larga a la izquierda se dice que está sesgado a la izquierda o negativamente sesgado,
caso c) Figura 1.

Fig. 1. Sesgo de los datos. Walpole, M (2012).

- Probabilidad: La probabilidad de un evento A, es un número real en el intervalo [0, 1]


que se denota como P(A), y representa una medida de la frecuencia con la que se
observa la ocurrencia del evento A cuando se efectúa el experimento aleatorio en
cuestión. Rincón, L (2006).

A continuación, se definirán algunos términos probabilísticos según el autor


González, E y Panteleeva, O (2014).

- Experimento Aleatorio: Proceso de obtención de una observación en que se cumple


alguna de las siguientes condiciones:

a) Todos los resultados posibles son conocidos.

b) Antes de realizar el experimento el resultado es desconocido.

c) c) Es posible repetir el experimento en condiciones ideales.

Ejemplo 2: Lanzamiento de un dado, observando la cara superior que resulte.


- Espacio Muestral (S): Se refiere al conjunto de todos los resultados posibles de un
experimento probabilístico llamado espacio muestral del experimento y se denota por
(S). A su vez, a los elementos de un espacio muestral se les llama puntos muestrales.

Continuación ejemplo 2: Se realiza el experimento sobre el lanzamiento de dos dados


y se anota la suma de las caras superiores que resultan. En este caso, el espacio
muestral estará formado por:

𝑆 = {2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12}

- Evento (E): Conjunto de resultados posibles de (S). Es de notar que un evento no es


más que un subconjunto de un espacio muestral.

Continuación ejemplo 2: El lanzamiento de un dado y la cara superior que resulta. Sea


E el evento que denota: “el número de la cara que resulta no es mayor a 4”.

E = {1, 2, 3, 4}

Existe una diversidad de eventos, entre ellos, los considerados de mayor envergadura
son:

- Evento Vacío: El evento que no contiene ningún elemento, esto es, en el que
no existe algún resultado del experimento que cumpla las condiciones del
evento. El evento vacío suele denotarse por ∅ o { }.

Cont. Ejemplo 2: A: “Lanzamiento de un par de dados y que la suma de los


números de sus lados sea mayor a 13”. Es decir, A = { }, el evento A no tiene
ningún elemento, puesto que la máxima suma de los números de las caras en
el lanzamiento de dos dados es 12.
- Eventos Mutuamente excluyentes: Los eventos A y B, correspondientes a un
mismo experimento, se llaman mutuamente excluyentes si no tienen resultados
comunes. Es decir, para cualquier a ∈ A, se cumple a ∉ B; de igual manera,
para todo b ∈ B, tenemos que b ∉ A.

Ejemplo 3: Sean los eventos A = { a, e, i, o, u} y B = {x│x es una consonante;


en este caso, A y B son mutuamente excluyentes, ya que no existe ningún
elemento que sea vocal y consonante al mismo tiempo.

- Axiomas de Probabilidad: Dado un experimento con espacio muestral S y una familia


de eventos A de S tal que sus elementos cumplen con las leyes del álgebra de eventos,
Se llama probabilidad axiomática a la función numérica P, cuyo dominio es A y rango
el intervalo [0, 1], y es tal que los valores P(E) para cualquier E en A, cumplen con los
siguientes tres axiomas, llamados axiomas de Kolmogórov, para familias finitas:

Axioma 1. Para cualquier evento E, de A, se cumple P(E) ≥ 0.

Axioma 2. Para el espacio muestral S, P(S) = 1.

Axioma 3. Para cualquier sucesión infinita (o finita) de eventos mutuamente


excluyentes, de A, E1, E2, E3, … se cumple:

∞ ∞

𝑃 (⋃ 𝐸𝑘 ) = 𝑃(𝐸1 ) + 𝑃(𝐸2 ) + ⋯ = ∑ 𝑃´(𝐸𝑘 ).


𝐾=1 𝑘=1

A partir de los axiomas anteriormente aclarados, se procede a enunciar los teoremas


relacionados:

Teorema 1.1: Sea ∅ el evento vacío, entonces P (∅) = 0-

Teorema 1.2: Para cualquier evento E, P( Ec)= 1− P(E).

Teorema 1.3: Para cualquier evento E, 0 ≤ P(E) ≤ 1.


Teorema 1.4: Si A y B son eventos de un mismo espacio muestral, tales que A ⊂ B,
entonces P(A) ≤P(B).

Teorema 1.5: Para dos eventos cualesquiera A y B de un mismo espacio muestral, se


cumple que: P (A ∪ B) = P(A) + P(B) – P(A∩B).

Teorema 1.6: Para dos eventos cualesquiera A y B de un mismo espacio muestral, se


cumple que: P (A - B) = P(A) – P(A∩B).

- Probabilidad Condicional: Se puede definir la probabilidad condicional del evento A


dado el evento B como

P(A∩B)
P (A │ B) = si P(B) > 0
𝑃(𝐵)

- Eventos Independientes: Dos eventos serán independientes si la probabilidad de la


ocurrencia de uno no está afectada por la ocurrencia o la no ocurrencia del otro según
Hines, W y Montgomery, D (1996). A y B son independientes si y sólo si

P(A∩B) = P(A) * P(B)

Teorema: Si A y B son eventos independientes, entonces

1. A y 𝐵̅ son eventos independientes.

2. 𝐴̅ y 𝐵̅ son eventos independientes.

3. 𝐴̅ y B son eventos independientes.

- Teorema de Probabilidad Total: De acuerdo con Rincón, L (2006), sea B1, B2,…, Bn
una partición de Ω tal que P (Bi) > 0. Sea A cualquier evento. Entonces
P(A) = ∑𝑛𝑖=1 P (A │ 𝐵𝑗 )P(𝐵𝑗 )

Ejemplo 4: Suponga que en una población humana de igual número de hombres y


mujeres, el 4 % de hombres son daltónicos y el 1 % de las mujeres son daltónicas.
Una persona es elegida al azar, ¿cuál es la probabilidad de que sea daltónica?

Inicialmente se define los eventos de interés

M = “La persona escogida es mujer.”

H = “La persona escogida es hombre.”

D = “La persona escogida es daltónica.”

Se desea calcular P(D), Por el teorema de probabilidad total,

P(D) = P (D │ M) P(M) + P (D │ H) P(H)

P(D) = 1/100 * ½ + 4/100 * ½

P(D) = 1/40

- Teorema de Bayes: Este teorema involucra probabilidades condicionales y el autor


la define como “Sea B1, B2, . . . , Bn una partición de Ω tal que P (Bi) > 0, y sea A un
evento tal que P (A) > 0. Entonces para cada j = 1, 2, . . . , n,

𝑃(𝐴|𝐵𝑗 )𝑃(𝐵𝑗 )
𝑃 (𝐵𝑗 │ 𝐴) = 𝑛
∑𝑖=1 𝑃(𝐴|𝐵𝑖 )𝑃(𝐵𝑖 )

Ejemplo 5: En una fábrica hay dos máquinas, que denotaremos por A y B. La máquina
A realiza el 60 % de la producción total y la máquina B el 40 %. De su producción, la
máquina A produce 3 % de material defectuoso, la B el 5 %. Se ha encontrado un
material defectuoso, ¿cuál es la probabilidad de que este material defectuoso
provenga de la máquina B? Sean los eventos
A = “La máquina A produjo el material escogido.”

B = “La máquina B produjo el material escogido.”

D = “El material escogido es defectuoso.”

Preguntan P (B|D) y se puede observar que la información que se tiene es P (D|B).


Por el teorema de Bayes se tiene entonces que

𝑃 (𝐷|𝐵)𝑃(𝐵)
𝑃 (𝐵|𝐷) =
𝑃 (𝐷|𝐴)𝑃(𝐴) + 𝑃 (𝐷|𝐵)𝑃(𝐵)

5 40

100 100
P (B|D) = 3 60 5 40
∗ + ∗
100 100 100 100

10
P (B|D) = 19

3.2.- Distribuciones de probabilidad

Para definir las Distribuciones de probabilidad, es necesario tener presente ciertos


conceptos que entran en su definición y permiten entender por completo el mismo.

- Variable Aleatoria: De acuerdo con Walpole, M (2014), es una función que asocia
un número real con cada elemento del espacio muestral.

Se utiliza una letra mayúscula, ejemplo “X”, para denotar una variable aleatoria, y su
correspondiente letra minúscula, x en este caso, para uno de sus valores. Esto es,
cada valor posible de X representa un evento que es un subconjunto del espacio
muestral para el experimento dado.
Ejemplo 2:

De una urna que contiene 4 bolas rojas y 3 negras se sacan 2 bolas de manera
sucesiva, sin reemplazo. Los posibles resultados y los valores y de la variable aleatoria
Y, donde Y es el número de bolas rojas, son:

Espacio muestral y
RR 2
RN 1
NR 1
NN 0
Cuadro 2. Variable aleatoria Y. Walpole, M (2014).

Así mismo, el autor plantea que el espacio muestral en el que está inmerso la variable
aleatoria, puede ser de dos tipos:

- Espacio muestral Discreto: Cuando un espacio muestral contiene un número finito de


posibilidades, o una serie interminable con tantos elementos como números enteros
existen.

-Espacio Muestral Continuo: Cuando un espacio muestral contiene un número infinito


de posibilidades, igual al número de puntos en un segmento de recta, se le denomina
espacio muestral continuo.

En tal sentido, una variable aleatoria es discreta cuando se puede contar su conjunto
de resultados posibles. Mientras que una variable aleatoria es continua cuando puede
tomar valores en una escala continua. Las distribuciones de probabilidad Normal,
Exponencial y Weibull se consideran distribuciones de probabilidad continúa puesto
que tratan con variables aleatorias continuas en su análisis.
La distribución de probabilidad de una variable aleatoria continua no se puede
representar de forma tabular, sí es posible plantearla como una fórmula, la cual
necesariamente será función de los valores numéricos de la variable aleatoria continua
X, y como tal se representará mediante la notación funcional f (x). Cuando se trata con
variables continuas, a f (x) por lo general se le llama función de densidad de
probabilidad, o simplemente función de densidad de X. Como X se define sobre un
espacio muestral continuo, es posible que f (x) tenga un número finito de
discontinuidades.

Sin embargo, la mayoría de las funciones de densidad que tienen aplicaciones


prácticas en el análisis de datos estadísticos son continuas y sus gráficas pueden
tomar cualesquiera de varias formas, algunas de las cuales se presentan en la Fig. 2.

Fig.2. Funciones de Densidad Continuas. Walpole, M (2014).

Según el autor, para cumplir con la definición de función de densidad de probabilidad


y con la función de distribución acumulativa, se debe cumplir lo siguiente:

La función f (x) es una función de densidad de probabilidad (fdp) para la variable


aleatoria continua X, definida en el conjunto de números reales, si

1. f (x ) ≥ 0, para toda x ∈ R.

2. ∫−∞ 𝑓 (𝑥 )𝑑𝑥 = 1.

𝑏
3. P (a < X < b) =∫𝑎 𝑓 (𝑥 ) 𝑑𝑥 .

La función de distribución acumulativa F(x), de una variable aleatoria continua X con


función de densidad f (x), es

𝑥
F (x ) = P (X ≤ x ) = ∫−∞ 𝑓 (𝑡) 𝑑𝑡, 𝑝𝑎𝑟𝑎 − ∞ < 𝑥 < ∞.

3.2.1. Normal.

Hines, W y Montgomery, D (1996) Afirman que una variable aleatoria X tiene una
distribución normal con media p (a < p < -) y varianza O' > O si tiene la siguiente
función de densidad:

Función de Densidad:

1 2
𝑓 (𝑥) = 𝜎√2𝜋 𝑒 −((1/2)(𝑥−𝜇)/𝜎) -< ∞ < x < ∞

Fig. 3. Gráfica de Distribución Normal. Hines, W y Montgomery, D (1996).

En la figura 3 se puede observar la gráfica correspondiente a la distribución Normal.


La distribución normal se emplea de manera tan amplia que a menudo se recurre a la
notación abreviada X - N(µ, σ2) para indicar que la variable aleatoria X se distribuye
normalmente con media ɥ y varianza σ2.

Propiedades de la Distribución Normal

La distribución Normal tiene las siguientes propiedades:


1.∫−∞ 𝑓 (𝑥) 𝑑𝑥 = 1
Necesaria en todas las funciones de densidad.
2. f(x) ≥ 0 para todo x

3. lim 𝑓(𝑥) = 0 y lim 𝑓(𝑥) = 0


𝑥→∞ 𝑥→−∞

4. f[(x + µ)] = f[- (x - ɥ)]. La densidad es simétrica alrededor de µ.

5. El valor máximo de f ocurre en x = µ.

6. Los puntos de inflexión de f están en x = µ ± σ

Media y Varianza de la Distribución Normal

Media de la Distribución Normal

E (x) = µ

Varianza de la Distribución Normal

V (x) = σ2

Variable Aleatoria Normal Estándar

Para introducir los valores de la variable correspondiente a la distribución Normal,


estos deben ser modificados para utilizar la tabla correspondiente a esta distribución,
lo cual se le llama, estandarizar la variable. Este paso se realiza mediante la siguiente
ecuación:

x− μ
𝑧=
σ

Existe un caso particular de la Distribución Normal la cual se le ha llamado según el


autor Hines, W y Montgomery, D (1996) como Distribución Normal Estándar, con
media = 0 y varianza = 1; esto es Z ~ N(0, 1), y se afirma que Z es una distribución
normal estándar. A continuación, en la Fig. 4 se presenta la gráfica correspondiente a
la función de densidad de probabilidad de la distribución explicada.

Fig.4. Función de densidad de probabilidad de la Distribución Normal Estándar .

Ejemplo 3:

Dada una variable aleatoria X que tiene una distribución normal con μ = 50 y σ = 10,
calcule la probabilidad de que X tome un valor entre 45 y 62.
Fig. 5. Área para el ejemplo 3.

Solución: Los valores z que corresponden a x1 = 45 y x2 = 62 son

45−50 62−50
𝑧1 = = -0.5 y 𝑧2 = = 1.2.
10 10
Por lo tanto,

P (45 < X < 62) = P (-0.5 < Z< 1.2).

P (-0.5 < Z< 1.2) se muestra mediante el área de la región sombreada de la figura ##.
Esta área se puede calcular restando el área a la izquierda de la ordenada z = – 0.5
de toda el área a la izquierda de z = 1.2. Si se usa la tabla A.3 del autor Walpole, M
(2012)., se obtiene lo siguiente:

P (45 < X < 62) = P (-0.5 < Z< 1.2) = P (Z < 1.2) - P (z < -0.5)
= 0.8849 – 0.3085 = 0.5764.

3.2.2. Exponencial

La distribución exponencial es un caso especial de la distribución gamma, y ambas


tienen un gran número de aplicaciones. La distribución exponencial y la distribución
gamma desempeñan un papel importante en la teoría de colas y en problemas de
confiabilidad. Los tiempos entre llegadas en instalaciones de servicio y los tiempos de
operación antes de que partes, componentes y sistemas eléctricos empiecen a fallar
a menudo se representan bien mediante la distribución exponencial. La relación entre
la distribución gamma y la exponencial permite que la gamma se utilice en problemas
similares.

- Distribución Gamma: La variable aleatoria continua X tiene una distribución gamma,


con parámetros α y β, si su función de densidad está dada por:

1
𝑥 𝛼−1 ℯ −𝑥/𝛽 , 𝑥 > 0,
𝑓 (𝑥; 𝛼; 𝛽) = {𝛽 𝜏 (𝛼)
𝛼

0, 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜,

Donde α > 0 y β > 0.

En la figura 6 se muestran gráficas de varias distribuciones gamma para ciertos valores


específicos de los parámetros α y β. La distribución gamma especial para la que α = 1
se llama distribución exponencial.

Fig. 6. Distribuciones Gamma.

- Distribución Exponencial: La variable aleatoria continua X tiene una distribución


exponencial, con parámetro β, si su función de densidad es dada por:
1 −𝑥/𝛽
ℯ , 𝑥 > 0,
𝑓 (𝑥; 𝛽) = { 𝛽
0, 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜,

Donde β > 0.

El siguiente teorema y corolario proporcionan la media y la varianza de la distribución


gamma y la exponencial.

Teorema: La media y la varianza de la distribución gamma son

µ = αβ y σ2 = αβ2

Corolario: La media y la varianza de la distribución exponencial son

µ = β y σ2 = β2

Ejemplo 4:

Suponga que un sistema contiene cierto tipo de componente cuyo tiempo de operación
antes de fallar, en años, está dado por T. La variable aleatoria T se modela bien
mediante la distribución exponencial con tiempo medio de operación antes de fallar β
= 5. Si se instalan 5 de estos componentes en diferentes sistemas, ¿cuál es la
probabilidad de que al final de 8 años al menos dos aún funcionen?

Solución: La probabilidad de que un componente determinado siga funcionando


después de 8 años es dada por

1 ∞ −𝑡/5
𝑃 (𝑇 > 8) = ∫ ℯ 𝑑𝑡 = ℯ −8/5 ≈ 0.2
5 8

Al representar con X el número de componentes que todavía funcionan después de


8 años. Entonces, utilizando la distribución binomial se tiene

5
1

𝑃(X ≥ 2) = ∑ b(x; 5,0.2) = 1 − ∑ 𝑏(𝑥; 5,0.2) = 1 − 0.7373 = 0.2627


𝑥=0
𝑋=2

- La propiedad de falta de memoria y su efecto en la distribución exponencial: En los


tipos de aplicación de la distribución exponencial en los problemas de confiabilidad y
de tiempo de vida de una máquina o de un componente influye la propiedad de falta
de memoria de la distribución exponencial. Por ejemplo, en el caso de, digamos, un
componente electrónico, en el que la distribución del tiempo de vida es exponencial, la
probabilidad de que el componente dure, por ejemplo, t horas, es decir, P(X > t), es
igual que la probabilidad condicional

P (X ≥t0 + t │ X ≥ t0)

Entonces, si el componente “alcanza” las t0 horas, la probabilidad de que dure otras t


horas es igual que la probabilidad de que dure t horas. No hay “castigo” a través del
desgaste como resultado de durar las primeras t0 horas. Por lo tanto, cuando la
propiedad de falta de memoria es justificada es más adecuada la distribución
exponencial.

3.2.3. Weibull

De acuerdo con Hines, W y Montgomery, D (1996) La principal utilidad de la distribución de


Weibull es que proporciona una aproximación excelente a la ley de probabilidades de muchas
variables aleatorias. Una importante área de aplicación ha sido como un modelo para el tiempo
de falla en componentes y sistemas eléctricos y mecánicos.
- Distribución de Weibull: Según Walpole, M (2012) La variable aleatoria continua X tiene
una distribución de Weibull, con parámetros α y β, si su función de densidad es dada
por:

𝛽−1 −𝛼𝑥 𝛽
𝑓 (𝑥; 𝛼; 𝛽) = { 𝛼 𝛽 𝑥 ℯ , 𝑥 > 0,
0, 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜,

Donde α> 0 y β > 0.

A continuación, en la Fig. 7 se presentan las gráficas de la distribución de Weibull para


α = 1 y diversos valores del parámetro β. Si se permite que β = 1, la distribución de
Weibull se reduce a la distribución exponencial. Para valores de β > 1 las curvas
adoptan ligeramente la forma de campana y se asemejan a las curvas normales, pero
muestran algo de asimetría.

La media y la varianza de la distribución de Weibull se establecen en el siguiente


teorema.

Teorema: La media y la varianza de la distribución de Weibull son:

Media de la Distribución de Weibull:

1 1

𝜇=𝛼 𝛽 𝑇 (1 + )
𝛽

Varianza de la Distribución de Weibull:

2 −2/𝛽
2 1 2
𝜎 =𝛼 {𝑇 (1 + ) − [𝑇 (1 + )] }
𝛽 𝛽
Al igual que la distribución gamma y la exponencial, la distribución de Weibull se aplica
a problemas de confiabilidad y de prueba de vida como los de tiempo de operación
antes de la falla o la duración de la vida de un componente, que se miden desde algún
tiempo específico hasta que falla. Este tiempo de operación se representa antes de la
falla mediante la variable aleatoria continua T, con función de densidad de probabilidad
f (t), donde f (t) es la distribución de Weibull. Ésta tiene la flexibilidad inherente de no
requerir la propiedad de falta de memoria de la distribución exponencial. La función de
distribución acumulativa (fda) para la distribución de Weibull se puede escribir en forma
cerrada y realmente es muy útil para calcular probabilidades.

Fig. 7. Distribuciones de Weibull (α = 1).

- Fda para la distribución de Weibull: La función de distribución acumulativa para la


distribución de Weibull es dada por

𝛽
𝐹 (𝑥) = 1 − ℯ −𝛼𝑥 , para x ≥ 0,

Para α > 0 y β > 0.


Ejemplo 5:

El tiempo de vida X, en horas, de un artículo en el taller mecánico tiene una distribución


de Weibull con α = 0.01 y β = 2. ¿Cuál es la probabilidad de que falle antes de 8 horas
de uso?

2
Solución: P (X < 8) = F (8) = 1- ℯ −(0.01)8 = 1 – 0.527 = 0.473.

3.3- Herramientas Estadísticas para el Análisis de Datos

Navidi, W (2006) plantea que la media, mediana y la desviación estándar son resúmenes
numéricos de una muestra o de una población. Por lo cual representan un apoyo elemental
para el desarrollo de inferencias estadísticas, intervalos de confianza, prueba de hipótesis o
análisis de regresión. Además, los resúmenes gráficos también se usan para ayudar a
visualizar una lista de números. Entre los resúmenes gráficos se encuentran los histogramas,
a continuación, se explicarán en detalle los términos mencionados.

3.3.1. Histogramas

Según Hines, W y Montgomery, D (1996), es la representación gráfica de la


distribución de frecuencias en forma gráfica, como se muestra en la Figura ##. Para
dibujar un histograma, se usa el eje horizontal para representar la escala de medida,
y se dibujan las fronteras de los intervalos de clase, el eje vertical representa la escala
de frecuencia (o frecuencia relativa). Si los intervalos de clase son de igual ancho, las
alturas de los rectángulos dibujadas en el histograma son proporcionales a las
frecuencias. Si los intervalos de clase son de ancho desigual, se acostumbra entonces
dibujar rectángulos cuyas áreas son proporcionales a las frecuencias.
Fig. 8. Histograma de Frecuencias. Hines, W y Montgomery, D (1996).

Sin embargo, los histogramas son más fáciles de interpretar cuando los intervalos de
clase son de igual ancho. El histograma brinda una interpretación visual de la forma
de la distribución de las mediciones, así como información acerca de la diseminación
o dispersión de los datos. Cuando se pasa de los datos originales a la distribución de
frecuencia o al histograma, cierta cantidad de información se ha perdido puesto que
ya no se tiene las observaciones individuales. No obstante, está pérdida de
información es pequeña comparada con la precisión y facilidad de interpretación
ganadas al utilizar la distribución de frecuencia y el histograma.

Debido a que el histograma parte de la distribución de frecuencia, se explicará el


proceso para obtener la distribución de frecuencia con el cual se puede llegar al
Histograma.

- Paso 1: Cálculo de los Intervalos de Clase

Para construir una distribución de frecuencia, se debe dividir la gama de los datos en
intervalos, que suelen denominarse intervalos de clase. Si es posible, los intervalos de
clase deben ser de igual ancho, para incrementar la información visual en la
distribución de frecuencias. Deben hacerse algunos juicios al seleccionar el número
de intervalos de clase para dar una imagen razonable. El número de intervalos de clase
que se utiliza depende del número de observaciones y de la cantidad de discriminación
o dispersión en los datos. Una distribución de frecuencias en la que se emplean muy
pocos o demasiados intervalos de clase no será muy informativa. Es posible encontrar
que entre 5 y 20 intervalos es satisfactorio en muchos casos, y que el número de
intervalos de clase debe aumentar con n. El Intervalo de clase se calcula de la siguiente
manera:

K = √𝑛

- Paso 2: Cálculo del Rango.

Se realiza la suma algebraica entre el valor máximo y el valor mínimo de la data a


analizar. Cómo se observa a continuación:

R = Lmáx – Lmin

- Paso 3: Determinar la distribución de Frecuencias observadas y Relativas.

Las frecuencias observadas se obtienen verificando los valores existentes por intervalo
de clase para ser registrado.

Las frecuencias Relativas: Se determinan dividiendo la frecuencia observada en cada


intervalo de clase por el número total en observaciones.

- Paso 4: Graficar.

Luego de obtenido los datos, se procede a representar gráficamente la distribución de


frecuencias a través de un gráfico de barras.

Ejemplo 6: Continuando con el ejemplo progresivo 1, se realiza el histograma de la


siguiente manera:
N° TEF (Días) N° TEF (Días)
1 42 16 12
2 20 17 6
3 86 18 18
4 184 19 59
5 17 20 1225
6 77 21 354
7 124 22 32
8 30 23 171
9 133 24 230
10 22 25 144
11 130 26 82
12 175 27 101
13 564 28 184
14 139 29 136
15 17 30 138
Cuadro 1. Tiempo Entre Fallas Mandrinadora. Elaboración propia.

𝐾 = √30 = 5.47 ≈ 5

R = 1225 – 6 = 1219

Distribución de Frecuencias Observadas y Relativas mediante el programa


Statgraphics.

Límite Límite Frecuencia Frecuencia Frecuencia


Clase Inferior Superior Punto Medio Frecuencia Relativa Acumulada Rel. Acum.
menor o igual 6,0 1 0,0333 1 0,0333
1 6,0 249,8 127,9 26 0,8667 27 0,9000
2 249,8 493,6 371,7 1 0,0333 28 0,9333
3 493,6 737,4 615,5 1 0,0333 29 0,9667
4 737,4 981,2 859,3 0 0,0000 29 0,9667
5 981,2 1225,0 1103,1 1 0,0333 30 1,0000
mayor de 1225,0 0 0,0000 30 1,0000
Tabla 1. Tabla de Frecuencias para TEF Mandrinadora. Elaboración propia.

Media = 155,067 Desviación Estándar = 232,682


Histograma de TEF Mandrinadora

Gráfica 1. Histograma de Frecuencia Relativa para TEF Mandrinadora.

Conclusión: El Tiempo Promedio entre Falla (TPEF) es igual a 155,067 días, donde la
mayor cantidad de fallas se presentan entre 127,9 y 249,8 días y existe una
probabilidad de 3.33 % de que se presente una falla en la Mandrinadora fuera de este
rango de días.

3.3.2. Inferencia Estadística

De acuerdo con Walpole, M (2012) La Inferencia estadística realiza juicios o


conclusiones con respecto a los sistemas científicos frente a la incertidumbre y a la
variación resultantes al aplicar diferentes métodos estadísticos. Para realizar las
conclusiones a estos sistemas científicos se podría requerir de un diseño experimental
en el cual se alteran los factores del estudio que influyen en la/s variable/s o quizás
implementar un estudio en el que no se requiera realizar ningún tipo de modificación o
alteración de la variable y simplemente se realice un estudio observacional, donde los
datos se acopian en el campo, pero no se seleccionan los niveles de factores.
Es muy natural estudiar probabilidad antes de estudiar inferencia estadística. Los
elementos de probabilidad permiten cuantificar la fortaleza o “confianza” en las
conclusiones. En este sentido, los conceptos de probabilidad forman un componente
significativo que complementa los métodos estadísticos y ayuda a evaluar la
consistencia de la inferencia estadística. Por consiguiente, la disciplina de la
probabilidad brinda la transición entre la estadística descriptiva y los métodos
inferenciales.

3.3.3. Intervalos de Confianza

El autor Rincón, L (2006) define y explica los Intervalos de Confianza de la siguiente


manera:

En este tipo de estimación se busca un intervalo de tal forma que se pueda decir, con
cierto grado de confiabilidad, que dicho intervalo contiene el verdadero valor del
parámetro desconocido.

Más precisamente, un intervalo de confianza para un parámetro desconocido θ de una


distribución de probabilidad dada, es un intervalo de la forma (𝜃̂ ̂ ̂ ̂
1 , 𝜃2 ) en donde 𝜃1 y 𝜃2

son estadísticas, esto es, funciones de una muestra aleatoria, tal que

̂1 < 𝜃 < 𝜃
𝑃(𝜃 ̂2 ) = 1 − 𝛼

Donde α ϵ (0,1) es un número arbitrario determinado de antemano por la persona que


̂1 y 𝜃
realiza la estimación. A las estadísticas 𝜃 ̂2 se les conoce como límites inferior y
superior, respectivamente, del intervalo de confianza. Al número 1- α se le conoce
como grado o coeficiente de confianza. En general, se toma el valor de α cercano a 0
de tal forma que el grado de confianza, 1- α, es cercano a 1. En la práctica es común
tomar α =0.05, de modo que el grado de confianza es 1- α =0.95. Por lo que el grado
de confianza es del 95 %. Observe que las estadísticas ̂ ̂2 dependen de una
𝜃1 y 𝜃
muestra aleatoria X1, X2, . . . , Xn, de modo que al tomar estas variables aleatorias
distintos valores se generan distintos intervalos de confianza como se muestra a
continuación, en la figura 9.

Fig. 9. Diferentes valores de intervalo aleatorio (𝜃̂ ̂


1 , 𝜃2 ). Rincón, L (2006).

De esta forma se puede decir que el intervalo aleatorio (𝜃̂ ̂


1 , 𝜃2 ) contiene el verdadero

valor del parámetro θ con probabilidad 1-α. Naturalmente el problema es encontrar ̂


𝜃1
̂2 de tal forma que la igualdad se cumpla. A continuación, se presentan los diferentes
y𝜃
casos a resolver con Intervalos de confianza.

Caso 1. Intervalo para la media de una población normal con varianza conocida.

Sea X1, X2, . . . , Xn, una muestra aleatoria de una población normal con media
desconocida µ y varianza conocida σ2. Se ilustra a continuación una forma de
encontrar un intervalo de confianza al (1 – α)100% para el parámetro desconocido µ.
Como cada una de las variables de la muestra tiene distribución N(µ, σ2), La variable
1
𝑋̅ = ∑𝑛𝑖=1 𝑋𝑖 tiene una distribución N(µ, σ2/n). Demodo que, estandarizando,
𝑛
𝑋̅ − μ
𝑧= ~ 𝑁(0,1)
σ/√𝑛

Para cualquier valor de α ϵ (0,1) es posible encontrar un valor 𝑧𝛼/2 en tablas de


probabilidad normal estándar tal que

𝑋̅ − μ
𝑃 (𝑧𝛼 < σ < 𝑧𝛼2 ) = 1 − 𝛼
2
√𝑛

La gráfica se observa en la Fig. 10

Fig. 10. Intervalos de Confianza en la Distribución Normal. Rincón, L (2006).

Al despejar la constante conocida μ se obtiene,

σ σ
𝑃 ( 𝑋̅ − 𝑧𝛼 ∗ < μ < 𝑋̅ + 𝑧𝛼 ∗ )=1− 𝛼
2 √𝑛 2 √𝑛

σ σ
De esta forma el intervalo ( 𝑋̅ − 𝑧𝛼 ∗ , 𝑋̅ + 𝑧𝛼 ∗ ) es un intervalo de confianza
2 √𝑛 2 √𝑛

para el parámetro desconocido µ pues contiene a dicho parámetro con probabilidad 1-


α. Observe que todas las expresiones que aparecen en este intervalo son conocidas.
Caso 2. Intervalo para la media de una población normal con varianza desconocida.

Sea X1, X2, . . . , Xn, una muestra aleatoria de una población normal con media
desconocida µ y varianza desconocida σ2. Se tiene entonces que la variable aleatoria

𝑋̅ − μ
𝑇= ,
S/√𝑛

Tiene una distribución t con n – 1 grados libertad. Observe que ésta es la distribución
exacta de la variable T, sin importar el tamaño de la muestra y sobre todo, sin suponer
que la varianza de la muestra es conocida. A partir de lo anterior se puede construir
un intervalo de confianza para el parámetro desconocido µ de la forma siguiente. Para
cualquier valor de α ∈ (0, 1) se encuentra un valor 𝑡𝛼 en tablas de probabilidad de
2

distribución t de n – 1 grados de libertad tal que

𝑋̅ − μ
𝑃 (−𝑡𝛼 < < 𝑡𝛼 ) = 1 − 𝛼
2 S/√𝑛 2

Al observar la gráfica de la figura 11,

Fig. 11. Intervalos de Confianza en la Distribución t con n – 1 grado libertad. Rincón, L (2006).

Al despejar la constante desconocida μ se obtiene,


S S
𝑃 ( 𝑋̅ − 𝑡𝛼 ∗ < μ < 𝑋̅ + 𝑡𝛼 ∗ )= 1− 𝛼
2 √𝑛 2 √𝑛

S S
De este modo el intervalo (𝑋̅ − 𝑡𝛼 , 𝑋̅ + 𝑡𝛼 ) es un intervalo de confianza exacto
2 √ 𝑛 2 √𝑛

al (1 - α)100 % para la media desconocida µ de una población normal, para cualquier


tamaño de muestra y sin suponer la varianza conocida.

Caso 3. Intervalo aproximado para la media de una población con varianza


desconocida y tamaño de muestra grande.

Sea X1, X2, . . . , Xn, una muestra aleatoria de una población normal con media
desconocida µ y varianza desconocida σ2. Suponiendo que el tamaño de la muestra
es grande, n ≥ 30. Entonces la variable aleatoria

𝑋̅ − μ
𝑍= ,
S/√𝑛

Tiene una distribución aproximada normal estándar. Esto es una consecuencia del
teorema del límite central pues el tamaño de la muestra es grande. En este caso
también se puede encontrar un intervalo aproximado de confianza para el parámetro
desconocido µ. El procedimiento es análogo al anterior. Para cualquier valor de α ∈
(0,1) se encuentra un valor 𝑧𝛼 en tablas de probabilidad normal estándar tal que
2

𝑋̅ − μ
𝑃 (−𝑧𝛼 < < 𝑧𝛼 ) = 1 − 𝛼
2 S/√𝑛 2

Al despejar la constante desconocida μ, se obtiene

S S
𝑃 ( 𝑋̅ − 𝑧𝛼 ∗ < μ < 𝑋̅ + 𝑧𝛼 ∗ )= 1− 𝛼
2 √𝑛 2 √𝑛
S S
De este modo el intervalo (𝑋̅ − 𝑧𝛼 , 𝑋̅ + 𝑧𝛼 ) es un intervalo de confianza
2 √𝑛 2 √𝑛

aproximado para el parámetro desconocido μ pues contiene a dicho parámetro con


probabilidad 1 − 𝛼.

Ejemplo 6: El contenido de ácido sulfúrico de 7 contenedores similares es de 9.8, 10.2,


10.4, 9.8, 10.0, 10.2, y 9.6 litros. Calcule un intervalo de confianza del 95% para el
contenido promedio de todos los contenedores suponiendo una distribución
aproximadamente normal.

Solución: Al analizar el ejercicio, es posible identificar que se trata del Caso 2. Intervalo
para la media de una población normal con varianza desconocida. Por lo tanto se
procede a realizar lo siguiente

La media muestral y la desviación estándar para los datos dados son:

𝑋̅ = 10.0 y 𝑠 = 0.283

Al usar la tabla correspondiente a la distribución t, se encuentra que 𝑡0.025 = 2.447 para


𝑣 = 6 grados de libertad. En consecuencia, el intervalo de confianza del 95% para µ
es

0.283 0.283
10.0 − (2.447) ∗ ( ) < μ < 10.0 + (2.447) ∗ ( )
√7 √7

Que se reduce a 9.74 < μ < 10.26.

3.3.4. Prueba de Hipótesis

Para el autor Rincón, L (2006) una hipótesis estadística o simplemente hipótesis es una
afirmación o conjetura acerca de la distribución de una o más variables aleatorias. Por
ejemplo, si X tiene una distribución bin(n, p) entonces la afirmación “p = 0,2” es una
hipótesis. Si X tiene una distribución N(µ, σ2) entonces la afirmación “µ > 0” es otro
ejemplo de hipótesis estadística.

Una hipótesis es simple si especifica por completo la distribución de probabilidad en


cuestión. Por ejemplo, si X tiene una distribución exp(λ) entonces la afirmación “λ = 5”
es una hipótesis simple. Si X tiene una distribución N(µ, 1) entonces la afirmación “µ=0”
es otro ejemplo de hipótesis simple. En contraste, al decir que una hipótesis estadística
es compuesta cuando no especifica por completo la distribución de probabilidad en
cuestión. Si X tiene una distribución Poisson(λ) entonces “λ > 20” es una hipótesis
compuesta. Si X tiene una distribución χ2(n) entonces “n ≠ 5” es otro ejemplo de una
hipótesis compuesta. En general, se contrastará dos hipótesis de acuerdo al siguiente
esquema y notación:

H0 : (Hipótesis nula) vs H1 : (Hipótesis alternativa).

Tanto la hipótesis (H0) como la hipótesis alternativa (H1) pueden ser simple o
compuesta. De este modo se tiene cuatro diferentes tipos de contraste de hipótesis:

Simple vs Simple
Simple vs Compuesta
Compuesta Simple
Compuesta Compuesta

Cuadro 4. Contraste de Hipótesis. Rincón, L (2006).

Ahora es posible definir una prueba de hipótesis como una regla para decidir si aceptar
la hipótesis nula (H0) o se rechaza en favor de la hipótesis alternativa (H1). Al tomar
una decisión de este tipo se pueden cometer errores sin saberlo. Al rechazo de la
hipótesis nula cuando esta es verdadera se le conoce como error tipo I y a la
probabilidad de cometer este primer tipo de error se le denota por la letra α. En cambio,
a la aceptación de la hipótesis nula cuando esta es falsa recibe el nombre de error tipo
II, a la probabilidad de cometer este segundo tipo de error se le denota por la letra β.
A continuación, se presenta el siguiente cuadro:

Cuadro 5. Formulación de Hipótesis. Rincón, L (2006).

Se llama región crítica a la región de rechazo de H0. Se llama tamaño de la región


crítica a la probabilidad de cometer el error tipo I, esto es α. A esta probabilidad se le
conoce también como nivel de significancia.

Pasos para la realización de una prueba de hipótesis

Según Navidi, W (2006), para la realización de una prueba de hipótesis se debe


proceder de la siguiente forma:

1. Defina H0 y H1.

2. Suponga que H0 es verdadera.

3. Calcule un estadístico de prueba. Éste constituye un estadístico que se usa para


evaluar la fuerza de la evidencia en contra de H0.

4. Calcule el P-valor del estadístico de prueba. El P-valor es la probabilidad,


suponiendo que H0 sea tan grande o mayor que el realmente observado. El P-valor
también se llama nivel de significancia observado.

Sea X1, X2, . . . , Xn, una muestra grande (por ejemplo, n > 30) de una población con
la media µ y desviación estándar σ.
𝑋̅ − 𝜇0
- Se procede a calcular el puntaje z: z = 𝜎
√𝑛

Si σ es desconocida se puede aproximar con s.

- Se procede a calcular el P-valor. Éste constituye un área bajo la curva normal, que
depende de la hipótesis alternativa de la siguiente manera:

Hipótesis Alternativa P-valor


H1: µ > µ0 Área a la derecha de z.
H1: µ < µ0 Área a la izquierda de z.
H1: µ ≠ µ0 Suma de áreas en las colas
correspondientes a z y -z.
Tabla 2. Tipos de Hipótesis Alternativa para cálculo de P-valor.

Cómo concluir para las Pruebas de Hipótesis

De acuerdo con Navidi, W (2006), se puede concluir a través del P-valor y a través de
la Significancia estadística.

El P-valor proporciona más información acerca de la fuerza de la evidencia contra la


hipótesis nula y permite que cada lector decida por sí mismo si se debe rechazar. Por
lo que a continuación se presentan las múltiples formas de concluir con respecto al
valor P.

- Entre menor sea el P-valor, se puede tener más certeza de que H0 es falsa.

- Entre mayor sea el P-valor, es más factible H0 pero nunca se puede tener la certeza
de que H0 sea verdadera.
- Una regla general indica rechazar H0 cada vez que P ≤ 0.05. Aunque esta regla es
conveniente, no tiene ninguna base científica.

Por medio de la significancia estadística también se puede concluir puesto que cada
vez que el P-valor es menor que un umbral específico, el resultado indica que es
“significativo estadísticamente” a ese nivel. Por lo que, por ejemplo, si P ≤ 0.05, el
resultado es estadísticamente significativo a un nivel de 5%; si P ≤ 0.01, el resultado
es estadísticamente significativo a un nivel de 1%, y así sucesivamente. Si un resultado
es estadísticamente significativo a un nivel de 100α%, también se puede decir que la
hipótesis nula se “rechaza a un nivel de 100α%”.

Tipos de pruebas de hipótesis

Algunas Prueba de hipótesis que plantea Navidi, W (2006) son:

- Pruebas de Hipótesis para la proporción poblacional

Sea X el número de éxitos en n ensayos independientes de Bernoulli, cada uno con


probabilidad de éxito p; en otras palabras, sea X ~ Bin(n,p).

Para probar una hipótesis nula de la forma H0: p ≤ p0, H0: p = p0, suponiendo que tanto
np0 como n(1 – p0) son mayores que 10:

𝑝̂− 𝑝0
- Se procede a calcular el puntaje z: z =
√𝑝0 (1− 𝑝0 )/𝑛

- Se procede a calcular el P-valor. Éste constituye un área bajo la curva normal, que
depende de la hipótesis alternativa de la siguiente manera:
Hipótesis Alternativa P-valor
H1: p > p0 Área a la derecha de z.
H1: p < p0 Área a la izquierda de z.
H1: p ≠ p0 Suma de áreas en las colas
correspondientes a z y -z.
Cuadro 6. Tipos de Hipótesis Alternativa para cálculo de P-valor.

- Pruebas de Hipótesis para la media poblacional con muestras pequeñas.

Sea X1, X2, . . . , Xn, una muestra de una población normal con media µ y desviación
estándar σ, donde σ es desconocida. Para probar una hipótesis nula de la forma: H0:
µ ≤ µ0, H0: µ ≥ µ0, o H0: µ = µ0:

𝑋̅ − 𝜇0
- Se procede a calcular el estadístico de prueba: t = 𝑠
√𝑛

- Se procede a calcular el P-valor. Éste en un área bajo la curva t de Student con n –


1 grados libertad, que depende de la hipótesis alternativa de la siguiente manera:

Hipótesis Alternativa P-valor


H1: µ > µ0 Área a la derecha de t.
H1: µ < µ0 Área a la izquierda de t.
H1: µ ≠ µ0 Suma de áreas en las colas
correspondientes a t y -t.
Cuadro 7. Tipos de Hipótesis Alternativa para cálculo de P-valor.

𝑋̅ − 𝜇0
Si se conoce σ, el estadístico de prueba es z = 𝜎 , y se debe hacer una prueba z.
√𝑛

- Pruebas de Hipótesis para la diferencia entre dos medias con muestras grandes.
Sea X1,. . . , Xnx y Y1,. . . , Yny muestras grandes (por ejemplo, nx > 30 y ny > 30) de las
poblaciones con medias µx y µy y las desviaciones estándar σx y σy, respectivamente.
Suponga que las muestras se extraen en forma independiente una de la otra.
Para probar una hipótesis nula de la forma H0: µx - µy ≤ Δ0, H0: µx - µy ≥ Δ0, o H0: µx - µy
=Δ0.

(𝑋̅ −𝑌̅)− Δ0
- Se procede a calcular el puntaje z: z = . Si σx y σy son desconocidas se
𝜎2 𝜎2
𝑦
√ 𝑋 +
𝑛𝑥 𝑛𝑦

pueden aproximar con sx y sy respectivamente.

- Se procede a calcular el P-valor. Éste constituye un área bajo la curva normal, que
depende de la hipótesis alternativa de la siguiente manera:

Hipótesis Alternativa P-valor


H1: µx - µy > Δ0 Área a la derecha de z.
H1: µx - µy < Δ0 Área a la izquierda de z.
H1: µx - µy ≠ Δ0 Suma de áreas en las colas
correspondientes a z y -z.
Cuadro 8. Tipos de Hipótesis Alternativa para cálculo de P-valor.

3.3.5. Análisis de regresión

- Análisis de Regresión lineal simple.

Hines, W y Montgomery, D (1996) explica que para determinar la relación entre una sola
variable regresiva x y una variable de respuesta y, la variable regresiva x se supone
como una variable matemática continua, controlable por el experimentador.
Supóngase que la verdadera relación entre “y” y “x” es una línea recta, y que la
observación y en cada nivel de x es una variable aleatoria. Luego, el valor esperado
de y para cada valor de x es
𝐸 ⟨𝑦|𝑥⟩ = 𝛽0 +𝛽1 𝑥

donde la ordenada de origen 𝛽0 y la pendiente 𝛽1 son constantes desconocidas. Se


supone que cada observación, y, puede describirse mediante el modelo

̂0 + ̂
𝑦= 𝛽 𝛽1 𝑥 + 𝜖

Donde 𝜖 es un error aleatorio con media cero y varianza σ2. Los { 𝜖 } se supone también
que son variables aleatorias no correlacionadas. El modelo de regresión de la
ecuación anterior que involucra sólo una variable regresiva x a menudo recibe el
nombre de modelo de regresión lineal simple.

̂0 , ̂
Para el cálculo de los estimadores 𝛽 𝛽1 , se aplican ecuaciones normales de mínimos
cuadrados, las cuales son:

̂0 = 𝑦̅ − 𝛽
𝛽 ̂1𝑥̅ (1)
𝑛 𝑛
(∑𝑖=1 𝑦𝑖 )(∑𝑖=1 𝑥𝑖 )
∑𝑛
𝑖=1 𝑦𝑖 𝑥𝑖 −
̂1 =
𝛽 𝑛
(2)
(∑𝑛
𝑖=1 𝑥𝑖 )
2
∑𝑛 2
𝑖=1 𝑥𝑖 − 𝑛

Por tanto, las ecuaciones (1) y (2) son los estimadores por mínimos cuadrados de la
ordenada al origen y la pendiente, respectivamente. A continuación, se les da nombre
al numerador y denominador de la ecuación (2).

(∑𝑛
𝑖=1 𝑥𝑖 )
2
Sxx = ∑𝑛𝑖=1 𝑥𝑖2 − 𝑛

(∑𝑛 𝑛
𝑖=1 𝑦𝑖 )(∑𝑖=1 𝑥𝑖 )
Sxy = ∑𝑛𝑖=1 𝑦𝑖 𝑥𝑖 − 𝑛

𝑆𝑥𝑦
̂1 =
Es decir, el estimador de mínimos cuadrados de la pendiente es 𝛽 .
𝑆𝑥𝑥
Ejemplo 6: Un ingeniero químico está investigando el efecto de la temperatura de
operación de proceso en el rendimiento del producto. El estudio da como resultado los
siguientes datos en la tabla 3:

Temperatura 100 110 120 130 140 150 160 170 180 190
°C (x)
Rendimiento, 45 51 54 61 66 70 74 78 85 89
% (y)
Tabla 3. Temperatura y Rendimiento Ejemplo 6. Hines, W y Montgomery, D (1996).

Estos pares de puntos se grafican en la Fig. 12. Tal presentación se denomina


diagrama de dispersión. El examen de este diagrama de dispersión indica que hay una
fuerte relación entre el rendimiento y la temperatura, y la suposición tentativa del
modelo de línea recta y = 𝛽0 + 𝛽1 𝑥 + 𝜖 parece razonable. Las siguientes cantidades
pueden calcularse:

10 10
n = 10 𝑥̅ = 145 𝑦̅ = 67.3
∑ 𝑥𝑖 = 1450 ∑ 𝑦𝑖 = 673
𝑖=1 𝑖=1
10 10 10

∑ 𝑥𝑖2 ∑ 𝑦𝑖2 ∑ 𝑥𝑖 𝑦𝑖
𝑖=1 𝑖=1 𝑖=1
= 218.500 = 47.225 = 101.570

Fig. 12. Diagrama de Dispersión de Rendimiento contra temperatura.


Al sustituir en las ecuaciones se obtiene:

2
(∑10
𝑖=1 𝑥𝑖 ) (1450)2
Sxx = ∑10 2
𝑖=1 𝑥𝑖 − = 218.500 − = 8.250
10 10

(∑10 10
𝑖=1 𝑦𝑖 )(∑𝑖=1 𝑥𝑖 ) (1450)(673)
Sxy = ∑10
𝑖=1 𝑦𝑖 𝑥𝑖 − = 101.570 − = 3985
10 10

En consecuencia, las estimaciones de mínimos cuadrados de la pendiente y la


ordenada al origen son:

𝑆𝑥𝑦 3985
̂1 =
𝛽 = 8250 = .48303
𝑆𝑥𝑥

̂0 = 𝑦̅ − 𝛽
𝛽 ̂1𝑥̅ = 67.3 − (. 48303)145 = −2.73939

El modelo de regresión lineal siempre ajustado es y = −2.73939 + .48303𝑥

- Análisis de Regresión Múltiple

Es el modelo de regresión que involucra más de una variable regresadora. Como un


ejemplo, supóngase que la vida eficaz de una herramienta de corte depende de la
velocidad y del ángulo de corte.

Un modelo de regresión múltiple que podría describir esta relación es

𝑦 = 𝛽0 + 𝛽1 𝑥1 + 𝛽2 𝑥2 +∈ (1)

donde “y” representa la vida de la herramienta, 𝑥1 , la rapidez de corte y, 𝑥2 , el Angulo


de corte. Éste es un modelo de regresión lineal múltiple con dos regresores. El término
‘‘lineal’’ se emplea debido a que la ecuación (1) es la función lineal de los parámetros
desconocidos 𝛽0 , 𝛽1 𝑦 𝛽2.

Nótese que el modelo describe un plano en el espacio bidimensional 𝑥1 , 𝑥2 . El


parámetro 𝛽0 define la ordenada al origen del plano. Algunas veces se llama a 𝑥1 y
𝑥2 coeficientes de regresión parciales, porque 𝑥1 mide el cambio esperado en “y” por
cambio unitario en 𝑥1 cuando 𝑥2 se mantiene constante, y 𝛽2 mide el cambio esperado
en “y” por cambio unitario en 𝑥2 cuando 𝑥1 se mantiene constante.

En general, la variable dependiente o respuesta y puede relacionarse con k variables


independientes. El modelo se denomina modelo de regresión lineal múltiple con k
variables independientes.

𝑦 = 𝛽0 + 𝛽1 𝑥1 + 𝛽2 𝑥2 + ⋯ + 𝛽𝛾 𝑥𝑘 + 𝜀 (2)

La media y la varianza de yi están dadas por

𝜇𝑦𝑖 = 𝛽0 + 𝛽1 𝑥1𝑖 + 𝛽2 𝑥2𝑖 + ⋯ + 𝛽𝑝 𝑥𝑝𝑖

2
𝜎𝑦𝑖 = 𝜎2

Cada coeficiente β1 representa el cambio en la media de “y” relacionada con un


aumento de una unidad en el valor de xi, cuando las otras variables “x” se mantienen
constante.

Suma de cuadrados

En el modelo de la ecuación 2, se definen las siguientes sumas de cuadrados:

- Sumas de los cuadrados de la regresión: SSR=∑𝑛𝑖=1(𝑦𝑖


̂ − 𝑦)2
- Suma de los cuadrados del error: SSE = ∑𝑛𝑖=1(𝑦𝑖 − 𝑦̂)
𝑖
2

- Suma total de los cuadrados: SST = ∑𝑛𝑖=1(𝑦𝑖 − 𝑦̂)


𝑖
2

Se puede mostrar que

SST = SSR + SSE (3)

La ecuación (3) se llama identidad del análisis de la varianza.

Supuestos para los errores en modelos lineales.

Las sumas de los cuadrados planteadas anteriormente, se utilizan para deducir los
estadísticos que se emplean en la regresión múltiple. Como se hizo en la regresión
lineal simple, el análisis se restringirá al caso más simple, en el cual se satisfacen los
cuatro supuestos acerca de los errores ε1. A continuación, se definen los cuatro
supuestos:

1. Los errores 𝜀1,…, 𝜀𝑛 son aleatorios e independientes. En particular, la magnitud de


cualquier error ε1 no influye en el valor del siguiente error ε i+1.

2. Los errores 𝜀1,…, 𝜀𝑛 tienen media 0.

3. Los errores 𝜀1,…, 𝜀𝑛 tienen la misma varianza que se denota por 𝜎 2 .

4. Los errores 𝜀1,…, 𝜀𝑛 están distribuidos normalmente.


3.4.- Medición de la Calidad en el Diseño

La medición de la calidad en el diseño empezó según Gutierrez, H (2010) cuando en


1931 Walter A. Shewhart, de Bell Telephone Laboratories, dio un fundamento científico
a la calidad mediante la publicación del libro Economic Control of Quality of
Manufactured Product. En este texto se dieron a conocer las cartas de control y el
estudio de la calidad a través de variables, las cuales es necesario estudiar. Establece
que el conocimiento adquirido a través de estudios estadísticos puede usarse para
mejorar el control mediante la estabilización y reducción de la variación en el proceso.
Con estos los directivos podían aumentar su confianza de que el producto cumple con
las especificaciones.

Para la misma época, Harold, F, Dodge y Harry G. Roming, iniciaron la aplicación de


la teoría estadística a la inspección por muestras y desarrollaron el muestreo de
aceptación como sustituto de la inspección al 100%.

Siguiendo el hilo de los avances para la calidad en el diseño de un producto, otra


contribución de importancia fue dada durante la Segunda Guerra Mundial, el gobierno
de Estados Unidos promovió la aplicación del control estadístico en la industria. Entre
otras cosas, invitó a un grupo de expertos a elaborar un amplio programa educativo
para el personal de la industria y de las universidades. Entre 1943 y 1945, un total de
810 organizaciones enviaron representantes al curso sobre control estadístico de
calidad, impartido por la Office of production Research and Development.

El conocimiento y la metodología sobre la calidad que se habían logrado desarrollar


en Estados Unidos hasta esas fechas empezaron a trasladarse en Japón, un país
derrotado y devastado por la Segunda Guerra Mundial. En esta nación se alcanzó la
plenitud de la etapa del control estadístico de calidad y fue la semilla de nuevos
conceptos de la calidad.
Luego en 1950, el estadístico estadounidense W. Edwards Deming impartió varias
conferencias a altos directivos de empresas japonesas y les planteó las ventajas de
control estadístico de calidad. Siguiendo sus recomendaciones, algunos de ellos
empezaron a reportar incrementos en la productividad sin comprar equipos. Durante
esa misma fecha, más de 400 ingenieros japoneses recibieron un curso de 8 días
sobre control de calidad, impartido por el Doctor Deming. Su presencia en Japón en
1950 se debió a una invitación expresa de la Unión Científica e Ingenieros Japoneses
(JUSE, por sus siglas en inglés). Las conferencias y cursos del Doctor Deming
consolidaron algunas actividades previas de control de calidad y desencadenaron una
serie de tareas en pro de la calidad de los productos japoneses, hasta convertirse en
un movimiento que generó aportes clave al trabajo por la calidad. Deming enseñó a
los ejecutivos e ingenieros japoneses a estudiar y reducir la variación mediante la
aplicación de cartas de control.

Asimismo, mostró los principios del pensamiento científico con el ciclo PHVA: Planear,
Hacer, Verificar y Actuar. La aplicación de este ciclo permitió aprender a realizar
mejoras. Los japoneses lo utilizaron como un medio para reconstruir el país, mientras
que en Estados Unidos este ciclo fue diseñado debido a las circunstancias de bonanza
de la posguerra. En 1951, la JUSE estableció los premios de calidad Deming, que con
el tiempo se convirtieron en un fuerte estímulo para la mejora. Para este premio se
utilizaron las regalías de un libro que se basaba en las conferencias del doctor Deming.

Con la influencia de líderes japoneses como Kaoru Ishikawa, Genichi Taguchi, Shigeo
Shingo, Taichi Ohono, etc., se continuó refinando el ciclo PHVA y la introducción de
otras técnicas para apoyar la mejora continua enfocada en los medios (causas) y no
en el producto final (los resultados).

Para explicar brevemente las mencionadas Cartas de control anteriormente y su


incidencia en la Calidad del diseño, el mismo autor explica su definición y menciona
sus tipos a continuación:
- Carta de Control: Su objetivo básico es observar y analizar el comportamiento de un
proceso a través del tiempo. Esto permitirá detectar las variaciones por causas
comunes de las debidas a causas especiales (atribuibles), lo que ayudará a
caracterizar el funcionamiento del proceso y así decidir las mejores acciones de control
y de mejora. La carta de control típica se compone de tres líneas paralelas por lo
general horizontales, que rematan a la izquierda en una escala numérica en las
unidades del estadístico que se grafica en la carta, y en su parte inferior paralela a las
líneas, hay un eje para identificar la procedencia de los datos.

Las línea central de una carta de control representa el promedio del estadístico que se
gráfica y las otras dos líneas se llaman límites de control, superior e inferior, y están
en una posición tal que cuando el proceso está en control estadístico, hay una alta
probabilidad de que aproximadamente todos los valores del estadístico (puntos) caigan
dentro de los límites. De esta manera si todos los puntos caen dentro de los límites,
entonces se supone que el proceso está bajo control estadístico. Ver Fig. 13

Tipos de Cartas de Control

Existen dos tipos generales de Cartas de Control:

- Cartas de Control para Variables: Se aplican para características de calidad de tipo


continuo, que intuitivamente son aquellas que requieren un instrumento de medición
(pesos, volúmenes, voltajes, longitudes, resistencias, temperaturas, humedad,
etcétera). Las cartas de Control por variables tipo Shewhart más usuales son: 𝑋̅ (de
medias); R (de rangos); S (de desviación estándar) y X (de medias individuales).

- Cartas de Control por Atributos: Se aplica cuando existen características de calidad


de un producto que no son evaluadas con un instrumento de medición en una escala
continua o al menos en una escala numérica. En estos casos el producto se juzga
como conforme y no conforme, dependiendo de si posee ciertos atributos; o también
es posible contar al producto el número de defectos o no conformidades que tiene. Las
cartas de control por Atributos son: p (proporción o fracción de artículos defectuosos);
np (número de unidades defectuosas); c (número de defectos); u (número promedio
de defectos por unidad).

3.5.- Confiabilidad

De acuerdo Hines, W y Montgomery, D (1996) Se considera un componente que


acaba de manufacturarse. Éste operará en un “nivel de esfuerzo” establecido o
dentro de un intervalo de esfuerzo tales como temperatura, impacto, etc. La variable
aleatoria T se define como el tiempo previo a la falla, y la confiabilidad del
componente (o subsistema o sistema) en el tiempo t es R(t) = P[T > t]. R se denomina
función de confiabilidad. El proceso de falla suele ser complejo, constando al menos
de tres tipos de fallas: iniciales, de desgaste, y otras que caen entre estas. Una
distribución compuesta hipotética del tiempo previo a la falla se muestra en la figura
14. Ésta es una distribución mezclada, y

Figura 14. Distribución de fallas compuestas. Hines, W y Montgomery, D (1996).


𝑝(0) + ∫ 𝑔(𝑡)𝑑𝑡 = 1.
0

Puesto que en muchos componentes (o sistemas) las fallas iniciales o fallas de tiempo
cero se eliminan durante la prueba, la variable aleatoria T está condicionada al evento
de que T > 0, por lo que la densidad de falla es

𝑔(𝑡)
𝑓(𝑡) = 𝑡> 0
1 − 𝑝(0)
f (t) = 0 en otro caso

De tal modo, en términos de f, la función de confiabilidad R es


𝑅 (𝑡) = 1 − 𝐹(𝑡) = ∫ 𝑓(𝑥) 𝑑𝑥
1

El modelado de sistemas más complejos supone que sólo las fallas de componentes
aleatorias necesitan considerarse. Esto es equivalente a establecer que el tiempo para
la distribución de fallas es exponencial, esto es,

f(t) = λ e-λt t ≥ 0
=0 en otro caso

De modo que

𝑓(𝑡) 𝜆ℯ −𝜆𝑡
ℎ (𝑡) = = −𝜆𝑡 = 𝜆
𝑅(𝑡) ℯ

es una constante. Cuando se han eliminado todas las fallas de etapa temprana por
el quemado inicial y el tiempo para la ocurrencia de fallas por desgaste es muy
grande (como con las partes electrónicas), entonces esta suposición es razonable.

La distribución normal se emplea con mayor generalidad para modelar fallas por
desgaste o fallas por esfuerzo (donde la variable aleatoria es el nivel de esfuerzo en
vez del tiempo). En situaciones donde la mayor parte de las fallas se deben al
desgaste, la distribución normal puede ser muy apropiada. Se ha encontrado que la
distribución lognormal es aplicable en la descripción del tiempo de falla en algunos
tipos de componentes, y la bibliografía técnica parece indicar una utilización creciente
de esta densidad para este propósito. La distribución de Weibull se ha empleado de
manera amplia para representar el tiempo previo de falla, y su naturaleza es tal que
puede establecerse para aproximar con bastante precisión el fenómeno observado.
Cuando un sistema se compone de varios componentes y se deba al mhs serio de
un gran número de defectos o defectos posibles, la distribución de Weibull funciona
en particular muy bien como modelo.

Un sistema simple en serie se muestra en la figura 17.20. Para que el sistema


funcione, todos los componentes deben funcionar, y se supone que los
componentes funcionan de modo independiente. Dejamos que T/ sea el tiempo de
falla para el componente cj para j = 1 , 2, . . . , n, y T representa el tiempo de falla
del sistema. El modelo de confiabilidad es entonces

𝑅 (𝑡) = 𝑃[𝑇 > 𝑡] = 𝑃 (𝑇1 > 𝑡) ∗ 𝑃(𝑇2 > 𝑡) … 𝑃(𝑇𝑛 > 𝑡)

𝑅(𝑡) = 𝑅1 (𝑡) ∗ 𝑅2 (𝑡) … . 𝑅𝑛 (𝑡)

Donde

P[𝑇𝑗 > 𝑡] = 𝑅𝑗 (𝑡)

Figura 15. Sistema en serie. Hines, W y Montgomery, D (1996).

3.6.- Predicción de la Confiabilidad Basada en la distribución de Weibull

El autor Walpole, M (2012) expone que la distribución de Weibull, con frecuencia es


útil determinar la tasa de fallas (algunas veces denominada tasa de riesgo) para tener
conocimiento del desgaste o deterioro del componente. La confiabilidad de un
componente o producto es la probabilidad de que funcione adecuadamente por al
menos un tiempo específico en condiciones experimentales específicas. Por lo tanto,
si R (t) se define como la confiabilidad del componente dado en el tiempo t,


R(t) = P(T>t) = ∫𝑡 𝑓(𝑡)𝑑𝑡 = 1 − 𝐹(𝑡).
Donde F(t) es la función de distribución acumulativa de T. La probabilidad condicional
de que un componente fallará en el intervalo de T = t a T = t + Δt, dado que sobrevive
hasta el tiempo t, es

F(t + Δt) − F(t)


𝑅(𝑡)

Al dividir esta proporción entre Δt y tomar el límite como Δt→ 0, obtenemos la tasa de
fallas, denotada por Z(t), que expresa la tasa de fallas en términos de la distribución
del tiempo de operaciones antes de una falla. La cual es dada como sigue:

La tasa de fallas en el tiempo t para la distribución de Weibull es dada por:

Z(t) = 𝛼𝛽ℯ 𝛽−1 , 𝑡 > 0

- Interpretación de la tasa de fallas

a) La cantidad Z(t) es bien llamada tasa de fallas porque realmente cuantifica la tasa
de cambio con el tiempo de la probabilidad condicional de que el componente dure
una adicional dado que ha durado el tiempo t. La tasa de disminución (o crecimiento)
con el tiempo también es importante. Los siguientes puntos son fundamentales.

b) Si β = 1, la tasa de fallas = α, es decir, una constante. Esto, como se indicó


anteriormente, es el caso especial de la distribución exponencial en que predomina la
falta de memoria.

c) Si β > 1, Z(t) es una función creciente del tiempo t que indica que el componente se
desgasta con el tiempo.

d) Si β < 1, Z(t) es una función decreciente del tiempo t y, por lo tanto, el componente
se fortalece o endurece con el paso del tiempo.
3.7.- Límites de Especificaciones

Los límites de Especificaciones, o como los llama el autor Gutierrez, H (2010) Límites
de Control, son un aspecto fundamental, ya que si estos se ubican demasiado alejados
de la línea central entonces será más difícil detectar los cambios en el proceso,
mientras que si se ubican demasiado estrechos se incrementará el error tipo 1
(declarar un cambio cuando no lo hay).

Para calcular los límites de control se debe proceder de tal forma que, bajo condiciones
de control estadístico, el estadístico que se grafica en la carta tenga una alta
probabilidad de caer dentro de tales límites. Por lo tanto, una forma de proceder es
encontrar la distribución de probabilidad del estadístico, estimar sus parámetros y
ubicar los límites de manera que un alto porcentaje de la distribución esté dentro de
ellos, lo que se conoce como límites de probabilidad.

Una forma más sencilla y usual se obtiene a partir de la relación entre la media y la
desviación estándar de una variable, que para el caso de una variable de distribución
Normal con media µ, desviación estándar σ, y bajo condiciones de control estadístico,
se tiene que entre 𝜇 − 3𝜎 y 𝜇 + 3𝜎 se encuentra 99.73% de los posibles valores que
toma tal variable. En caso de que no se tenga una distribución normal, pero exista una
distribución unimodal y con una forma no muy distinta a la normal, entonces se aplica
la regla empírica o la extensión del teorema de Chebyshev. Bajo estas condiciones, se
presenta a continuación un modelo general para una carta de control.

Sea w el estadístico que se va a graficar en la carta y supongamos que su media es


𝜇𝑤 y su desviación estándar es 𝜎𝑤 , entonces el límite de control inferior (LCI), la línea
central y el límite de control superior (LCS) están dados por:

𝐿𝐶𝐼 = 𝜇𝑤 − 3𝜎𝑤

Línea Central = 𝜇𝑤

𝐿𝐶𝑆 = 𝜇𝑤 + 3𝜎𝑤
Con estos límites y bajo condiciones de control estadístico se tendrá alta probabilidad
de que los valores de w estén dentro de ellos. La forma de estimar la media y la
desviación estándar de w a partir de las observaciones del proceso dependerá del tipo
de estadístico que sea w, ya sea un promedio, un rango o un porcentaje.

3.8.- La Habilidad del Proceso

De acuerdo con el autor Gutierrez, H (2010), La habilidad o capacidad del proceso


consiste en conocer la amplitud de la variación natural del proceso para una
característica de calidad dada; esto permitirá saber en qué medida tal característica
de calidad es satisfactoria.

- Índice Cp: El índice de capacidad potencial del proceso, Cp se define de la siguiente


manera:

𝐸𝑆 − 𝐸𝐼
𝐶𝑝 =
6𝜎

Donde σ representa la desviación estándar del proceso, y ES y EI son las


especificaciones superior e inferior para la característica de calidad. Como se puede
observar, el índice Cp compara el ancho de las especificaciones o variación tolerada
para el proceso con la amplitud de la variación real del proceso:

𝑉𝑎𝑟𝑖𝑎𝑐𝑖ó𝑛 𝑡𝑜𝑙𝑒𝑟𝑎𝑑𝑎
𝐶𝑝 =
𝑉𝑎𝑟𝑖𝑎𝑐𝑖ó𝑛 𝑟𝑒𝑎𝑙

- Interpretación del índice 𝐶𝑝

Para que el proceso pueda considerarse potencialmente capaz de cumplir con


especificaciones, se requiere que la variación real (natural) siempre sea menor que la
variación tolerada. De aquí que lo deseable es que el índice 𝐶𝑝 sea mayor que 1, y si
el valor del índice 𝐶𝑝 es menor que 1, es una evidencia de que no cumple con
especificaciones. Para una mayor precisión en la interpretación, el cuadro 9 presenta
cinco categorías de procesos que dependen del valor del índice 𝐶𝑝 , suponiendo que le
proceso está centrado. Ahí se ve que el 𝐶𝑝 debe ser mayor que 1.33, si se quiere tener
un proceso bueno, pero debe ser mayor o igual que 2 si se quiere tener un proceso de
clase mundial (seis sigma).

Valor del índice 𝐶𝑝 Clase o categoría de proceso Decisión (si el proceso está
centrado)
𝐶𝑝 ≥ 2 Clase Mundial Se tiene calidad 6 Sigma.
𝐶𝑝 > 1.33 1 Adecuado.
1 < 𝐶𝑝 ≤ 1.33 2 Parcialmente adecuado,
requiere de control estricto.
0.67 < 𝐶𝑝 ≤ 1 3 No adecuado para el trabajo.
Un análisis del proceso es
necesario. Requiere
modificaciones serias para
alcanzar una calidad
satisfactoria.
𝐶𝑝 ≤ 0.67 4 No adecuado para el trabajo.
Requiere modificaciones muy
serias.
Nota: Si 𝐶𝑝𝑘 < 𝐶𝑝 entonces una vez que se centre el proceso se tendrá la clase del proceso que se
indica.
Cuadro 9. Valores del 𝐶𝑝 y su interpretación. Gutierrez, H (2010).

- Índices 𝐶𝑝 𝑘, 𝐶𝑝𝑖 , 𝐶𝑝𝑠

El índice 𝐶𝑝 estima la capacidad potencial del proceso para cumplir con


especificaciones, pero una de sus desventajas es que no toma en cuenta el centrado
del proceso, ya que en su fórmula para calcularlo no incluye la media del proceso µ.
Una forma de corregir esto es evaluar por separado el cumplimiento de las
especificaciones inferior y superior, a través del índice de capacidad para la
especificación inferior (𝐶𝑝𝑖 ), y el índice de capacidad para la superior (𝐶𝑝𝑠 ), que se
calculan de la siguiente manera:

µ−𝐸𝐼 𝐸𝑆− µ
𝐶𝑝𝑖 = y 𝐶𝑝𝑠 =
3𝜎 3𝜎
Estos índices si toman en cuenta µ y calculan la distancia de la media del proceso a
una de las especificaciones, que representa la variación tolerada para el proceso de
un solo lado de la media. A tal distancia se le divide entre 3σ porque solo se está
tomando en cuenta la mitad de la variación natural del proceso.

Por su parte el índice de capacidad real del proceso (𝐶𝑝𝑘 ) se puede ver como una
versión corregida del 𝐶𝑝 que si toma en cuenta el centrado del proceso. Para calcularlo
hay varias formas equivalentes, una de las más comunes es la siguiente:

µ − 𝐸𝐼 𝐸𝑆 − µ
𝐶𝑝𝐾 = 𝑀í𝑛𝑖𝑚𝑜 [ , ]
3𝜎 3𝜎

Como se puede apreciar, el índice 𝐶𝑝𝐾 es igual al valor más pequeño de entre
𝐶𝑝𝑖 𝑦 𝐶𝑝𝑠 , es decir, el índice 𝐶𝑝𝐾 es igual al índice unilateral más pequeño, por lo que
si el valor del 𝐶𝑝𝐾 es satisfactorio (mayor que 1.25), eso indicará que el proceso en
realidad es capaz. Si 𝐶𝑝𝐾 < 1, entonces el proceso no cumple con por lo menos una de
las especificaciones.

- Índice K.

Permite evaluar si la distribución de la característica de calidad está centrada respecto


a las especificaciones, por ello es útil calcular este índice de centrado del proceso, que
se calcula de la siguiente manera:

µ−𝑁
𝐾 = 1 𝑥100
(𝐸𝑆−𝐸𝐼)
2

Como se aprecia, este indicador mide la diferencia entre la media del proceso, µ, y el
valor objetivo o nominal, N (o target), para la correspondiente característica de calidad,
y a esa diferencia la compara contra la mitad de la amplitud de las especificaciones.
La interpretación usual de los valores K es la siguiente:
- Si el signo del valor de K es positivo, significa que la media del proceso es mayor que
el valor nominal, y será negativo cuando µ < N.

- Valores de K menores que 20% en términos absolutos se pueden considerar


aceptables, pero a medida que el valor absoluto de K sea más grande que 20%, indica
un proceso muy descentrado.

- El valor nominal, N, es la calidad objetiva y óptima; cualquier desviación respecto a


este valor lleva un detrimento en la calidad.

- Índice 𝐶𝑝𝑚 (Índice Taguchi)

Los índices 𝐶𝑝 𝑦 𝐶𝑝𝑘 están pensados a partir de que lo importante para un proceso

es reducir su variabilidad para cumplir con las especificaciones. Sin embargo, desde
el punto de vista G, Taguchi, cumplir con especificaciones no es sinónimo de buena
calidad y la reducción de la variabilidad debe darse pero en torno al valor nominal
(calidad óptima). Es decir la mejora de un proceso según Taguchi debe estar orientada
a reducir su variabilidad alrededor del valor nominal, N, y no sólo orientada a cumplir
con especificaciones. En consecuencia de lo anterior, Taguchi (1986) propone que la
capacidad del proceso se mida con el índice 𝐶𝑝𝑚 , que está definido por:

𝐸𝑆 − 𝐸𝐼
𝐶𝑝𝑚 =
6𝜏

Donde 𝜏 está dada por:

𝜏 = √𝜎 2 + (𝜇 − 𝑁)2
Ejemplo 7:

Una característica importante de los costales de fertilizantes es que deben pesar 50kg.
La especificación inferior para el peso es de EI = 49 kg, y la superior es ES = 51 Kg.
Se sabe que la media del peso es µ = 49.76 y usando el rango medio se estima que la
desviación estándar es σ = 0.51. Con base en esto se quiere saber en que medida del
proceso ha estado cumpliendo con especificaciones. En la figura 16 se muestra la
gráfica del proceso, suponiendo una distribución normal, con µ = 49.76 y σ = 0.51. De
acuerdo a la figura se descubre que el proceso no está centrado, ya que la media del
proceso es menor a 50; además, hay mucha variación ya que la distribución no cabe
dentro de las especificaciones.

Figura 16. Capacidad del Proceso del ejemplo 7. Gutierrez, H (2010).

Índice de Capacidad, está dado por:

51 − 49 2
𝐶𝑝 = = = 0.65
6(0.51) 3.06

De acuerdo al cuadro 9 el proceso es de cuarta categoría, con una capacidad


totalmente inadecuada y requiere de modificaciones muy serias en el proceso. Luego,
es necesario calcular los índices 𝐶𝑝𝑖 𝑦 𝐶𝑝𝑠 :
µ − 𝐸𝐼 49.76 − 49 0.76
𝐶𝑝𝑖 = = = = 0.50
3𝜎 3(0.51) 1.53

𝐸𝑆 − µ 51 − 49.76 1.24
𝐶𝑝𝑠 = = = = 0.81
3𝜎 3(0.51) 1.53

El índice para la especificación inferior, 𝐶𝑝𝑖 , es el más pequeño y es menor que uno,
entonces los mayores problemas están por la parte inferior. Cabe notar que también
en la especificación superior hay problemas, ya que 𝐶𝑝𝑠 = 0.81, por lo que el porcentaje
de producto que pesa más de ES = 51 Kg es 0.82%.

Es necesario además calcular el 𝐶𝑝𝑘

49.76 − 49 51 − 49.76 0.76 1.24


𝐶𝑝𝐾 = 𝑀í𝑛𝑖𝑚𝑜 [ , ] = 𝑀í𝑛𝑖𝑚𝑜 [ , ] = 0.5
3(0.51) 3(0.51) 1.53 1.53

En términos generales indica una capacidad muy pobre. Por lo tanto cierta proporción
de costales no tiene un peso adecuado, como ya se había visto con los índices
unilaterales y en la figura 16.

Como el 𝐶𝑝𝐾 = 0.50 y es menor que 𝐶𝑝 = 0.65, entonces existe un problema de


centrado del proceso, como se vio en la figura 16. Por lo que la primera recomendación
de mejora para ese proceso sería que optimice su centrado, con lo cual alcanzaría su
mejor potencial actual, que indica el valor 𝐶𝑝 = 0.65.

Para el índice K si se considera un valor nominal N= 50 kg, se obtendría

49.76 − 50
𝐾 = ∗ 100 = −24%
1
(51 − 49)
2
De esta forma la media del proceso está desviada 24% a la izquierda del valor nominal,
por lo que el centrado del proceso es inadecuado y eso contribuye de manera
significativa a la baja capacidad del proceso para cumplir con la especificación inferior.

A continuación se calcula el Ìndice 𝐶𝑝𝑚 :

51 − 49 2
𝐶𝑝𝑚 = = = 0.59
6√0.512 + (49.76 − 50)2 3.38

Interpretación: Cuando el índice 𝐶𝑝𝑚 es menor que 1, eso indica que el proceso no

cumple con especificaciones, ya sea por problemas de centrado o por exceso de


variabilidad. Por lo que en el caso de los costales no se cumple con especificaciones
y, como se aprecia en la figura 16 se debe tanto a exceso de variación como a que el
proceso está descentrado.

3.9.- Columbia

De acuerdo a DANE (2019), Se trata de un Departamento Administrativo Nacional de


Estadística DANE, quien es la entidad responsable de producir y difundir información
estadística de calidad para la toma de decisiones y la investigación en Colombia, así
como desarrollar el Sistema Estadístico Nacional.

DANE tiene como objetivo “garantizar la producción, disponibilidad y calidad de la


información estadística estratégica, y dirigir, planear, ejecutar, coordinar, regular y
evaluar la producción y difusión de información oficial básica”. Toda esta labor, sumada
a la aplicación de modernas tecnologías de captura, procesamiento y difusión, así
como la calidad humana de todos los que participan en el proceso de la organización,
permiten al DANE fortalecer el conocimiento, la confianza y la cultura estadística de
los colombianos, reafirmando su condición de líder de las estadísticas en Colombia.
3.10.- Especificaciones 105

Este plan de muestreo posiblemente es el que haya tenido mayor difusión. Ha sido
adoptado con pequeñas variaciones por casi todos los cuerpos de normas importantes
(ANSI, ISO, BS, JIS, UNE, etc.).

De acuerdo a Gutierrez, H (2010), los planes de muestreo MIL-STD-105E se basan en


el Nivel de Calidad Aceptable (NCA) que deberá fijarse entre cliente proveedor. En
principio estos planes están pensados para inspección lote a lote aunque también se
puede utilizar para el caso de lotes aislados; en este caso es necesario especificar
cuál es nivel de calidad máximo que se admite.

- Existen 3 niveles de inspección, niveles I, II, y III y otro cuatro especiales, niveles S-
1, S-2, S-3 y S-4, que se utilizan en caso de ensayos destructivos o de inspecciones
muy costosas. Estos niveles van en función de la complejidad y la responsabilidad del
producto. Cuanto más alto es el nivel, mayor es el tamaño de la muestra y aumenta la
discriminación del plan de muestreo. Si no se indica otra cosa se toma el nivel II.

- Existen tres tipos de planes: simples, dobles y múltiples, cuya elección queda a cargo
del inspector que aplica la norma.

- Como se mencionó anteriormente, esta norma está diseñada para series de lotes.
Existen por tanto tres niveles de muestreo distintos según haya sido la historia de los
lotes anteriores: Inspección Rigurosa; Inspección Normal; Inspección reducida.
CONCLUSIONES

En términos generales, la metrología se ha apoyado en gran medida en la estadística


descriptiva y probabilística, puesto que para determinar que los datos obtenidos en la
medición de la temperatura, presión, caudal, entre otros., sean los indicados se utiliza
la estadística descriptiva, ya sea para verificar cuanto se aproximan a la Media (Medida
de tendencia central), o la varianza para identificar cuanto varían entre un dato y el
siguiente (Medida de dispersión) o cuan desplazados se encuentran en función a la
Media en el caso del Sesgo en la gráfica de distribución (Medida de forma). Cabe
destacar que las herramientas que permiten visualizar como se distribuyen los datos a
lo largo de la medición en cuanto a frecuencia en el dato observado con respecto a un
intervalo de clase previamente definido, se considera el histograma, un gráfico útil para
el análisis estadístico.

Con respecto a la estadística probabilística, se emite una variedad de inferencias


estadísticas en función a análisis previos que permitan emitir conclusiones, ya sea para
determinar el tipo de distribución de probabilidad que sigue la variable seleccionada,
en el caso de datos correspondientes a la medición de temperatura, esta se considera
una variable aleatoria por tener unidad de medida (ºC/ºF) y tomar valores infinitos en
la medición, puede seguir alguna distribución de probabilidad continua como la normal,
con parámetros de la media (µ) y la varianza (σ2), la cual entre sus propiedades se
encuentra que el valor más alto que puede tomar es la media x= µ.

Existen otras distribuciones continuas como lo son la distribución de probabilidad


exponencial y la distribución de probabilidad Weibull. La primera de gran utilidad para
modelar los tiempos entre llegadas en instalaciones de servicio y los tiempos de
operación antes de que partes, componentes y sistemas eléctricos empiecen a fallar,
así como también para calcular la confiabilidad de algún equipo. La distribución de
Weibul tiene la función de analizar los tiempos entre fallas de equipos o maquinarias,
así como también para determinar la confiabilidad de ese equipo, análisis útil para
preparar las actividades de mantenimiento correspondientes para evitar dichas fallas.
Para determinar qué tipo de distribución de probabilidad se presenta, se utiliza también
inferencia estadística como las pruebas de hipótesis para consolidar la veracidad de
un planteamiento, como por ejemplo si la media de la temperatura de un equipo es
igual a 30ºC, o si la distribución de dichos valores de temperaturas sigue una
distribución normal.

Los intervalos de confianza, también representan un método útil de análisis para


determinar si los valores de una medida se encuentran dentro de un intervalo conocido,
o si algún equipo de medición sobrepasa ya sea el intervalo superior o menor, el cual
se toma como referencia para indicar que el equipo se encuentra calibrado. De
acuerdo al caso que se presenta, resulta el tratamiento del mismo, ya sea de media
conocida y varianza desconocida, media desconocida y varianza conocida o ambos
parámetros desconocidos.

Para el caso de identificar la medida en que dos variables se relacionan, mediante la


similitud con una línea recta o si se requiere analizar la relación entre más de dos
variables, se emplea el análisis de regresión, un método sencillo que permite
demostrar la magnitud en la relación entre dos variables.

Sin embargo, para ahondar en mayor magnitud en las herramientas estadísticas


explicadas a lo largo de la investigación, se han utilizado para realizar el control
estadístico de mediciones, estudios e implementaciones de solución en la empresas
más exitosas, al considerar que la calidad es un paso fundamental para garantizar la
competitividad de una compañía, su sostenibilidad, innovación y confianza de sus
clientes. En el caso de la metrología, gracias a los avances en la medición de la calidad
del diseño de productos, servicios, métodos de trabajo, entre otros, se ha permitido
obtener equipos o herramientas de medición que posibilitan obtener medidas
confiables de los productos o en el trabajo que se requiere realizar.

Las cartas de control, tienen una gran influencia en la calidad de la medición, puesto
que su objetivo básico es observar y analizar el comportamiento de un proceso a
través del tiempo, mediante la consideración de los límites de control superior e inferior
que determinan el área donde el mayor porcentaje de la distribución del proceso debe
encontrarse, en el caso de la temperatura de un equipo, puede establecerse límites de
control para garantizar que el equipo funcione en forma correcta dentro de estos
límites, y al salirse de ellos, analizar si se considera una causa específica o si se debe
a que el equipo se está saliendo de control, por lo que es un método inclusive de
precaución. Otro método para la medición de la calidad son las especificaciones 105,
donde se define un Nivel de Calidad Aceptable entre cliente y proveedor, lo cual cada
vez a tomado mayor auge puesto que considerar la opinión del cliente final como parte
de la calidad del producto a ofrecer es realmente útil para evitar desperdicios,
devoluciones, malos términos, en el que se consideran otras medidas para llevar la
inspección lote a lote y cumplir con los requisitos del cliente final.

El control estadístico es fundamental para llevar a cabo la toma de medidas en forma


correcta, la consideración de equipos calibrados con resultados confiables lo cual se
extiende a ofrecer servicios de calidad que permitan acercarse en gran medida al
resultado esperado, que evita caer constantemente en ensayo y error para comprobar
la veracidad de una idea, la utilidad de un método o los resultados de un trabajo.
REFERENCIAS BIBLIOGRÁFICAS

 DANE (2019). Departamento Administrativo Nacional de Estadística. Perfil en


línea: https://es.linkedin.com/company/departamento-administrativo-nacional-
de-estad-tica---dane-colombia. (Consulta: 11/11/2019).

 González, E y Panteleeva, O (2014). Probabilidad y Estadística. Editorial: Patria.


País: México. PDF en línea:
https://editorialpatria.com.mx/pdffiles/9786074389319.pdf. (Consulta:
06/11/2019).

 Gutierrez, H (2010). Calidad Total y productividad. Editorial: McGraw-Hill.


Edición: 3ra. País: D.F., México. (Consulta: 11/11/2019).

 Hines, W y Montgomery, D (1996). Probabilidad y Estadística para Ingeniería y


Administración. Editorial: Continental S.A. País: México. PDF en línea:
http://148.206.53.84/tesiuami/Libros/L50.pdf. (Consulta: 11/11/2019).

 Navidi, W (2006). Estadística para Ingenieros y Científicos. Editorial: MC Graw


Hill. Edición: 1ra. País: D.F., México. Pág.: 2-39; 231-278; 723-759. (Consulta:
06/11/2019). `

 Rincón, L (2006). Una introducción a la Probabilidad y Estadística. Editorial:


Facultad de Ciencias UNAM. País: México. Libro en línea:
http://lya.fciencias.unam.mx/lars/libros/pe-agosto-2006.pdf.

 Walpole, M (2012). Probabilidad y Estadística para ingeniería y ciencias.


Editorial: Pearson. Edición: 8va. País: México. Libro en línea:
https://vereniciafunez94hotmail.files.wordpress.com/2014/08/8va-probabilidad-
y-estadistica-para-ingenier-walpole_8.pdf. (Consulta: 11/11/2019).

S-ar putea să vă placă și