Upload
others
View
2
Download
0
Embed Size (px)
Citation preview
Apuntes sobre Control de la Calidad y
Fiabilidad
Salvador Naya Fernández
Febrero 2012
ii
Índice general
1. Introducción al control de la calidad. 1
1.1. Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Definiciones básicas de calidad . . . . . . . . . . . . . . . . . . . 2
1.2.1. Tipos de control . . . . . . . . . . . . . . . . . . . . . . . 3
1.2.2. Control estadístico y control ingenieril de Procesos . . . 4
1.2.3. Proceso bajo control . . . . . . . . . . . . . . . . . . . . 5
1.2.4. Control ingenieril de procesos . . . . . . . . . . . . . . . 7
1.2.5. Introducción a la fiabilidad . . . . . . . . . . . . . . . . . 8
1.3. Breve reseña histórica . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.1. Antecedentes al control de la calidad . . . . . . . . . . . 10
1.3.2. Nacen los diagramas de control . . . . . . . . . . . . . . 11
1.3.3. Se aplican planes de muestreo (control de aceptación) . . 12
1.3.4. Aparecen los departamentos de control de calidad . . . . 13
1.3.5. La expansión del control de calidad en y desde Japón . . 14
1.3.6. Control de la calidad total (TQC) . . . . . . . . . . . . . 15
1.3.7. La normalización en el control de calidad . . . . . . . . . 16
1.3.8. Aparece la fiabilidad . . . . . . . . . . . . . . . . . . . . 19
1.3.9. La Calidad en Europa . . . . . . . . . . . . . . . . . . . 20
1.3.10. La calidad en España . . . . . . . . . . . . . . . . . . . . 21
1.3.11. Los grandes artífices de la calidad . . . . . . . . . . . . . 23
1.3.12. Hitos históricos . . . . . . . . . . . . . . . . . . . . . . . 28
1.4. Nuevas Metodologías . . . . . . . . . . . . . . . . . . . . . . . . 30
1.4.1. Cuadro de mando y modelos de excelencia . . . . . . . . 30
1.4.2. Metodología Seis sigma . . . . . . . . . . . . . . . . . . . 31
1.4.3. El ciclo DMAIC . . . . . . . . . . . . . . . . . . . . . . . 32
1.4.4. Diseño para Seis Sigma (DFSS) . . . . . . . . . . . . . . 33
1.4.5. Lean y Just-In-Time . . . . . . . . . . . . . . . . . . . . 34
1.4.6. Desafíos actuales. . . . . . . . . . . . . . . . . . . . . . . 35
1.5. Cuestiones y ejercicios . . . . . . . . . . . . . . . . . . . . . . . 36
1.6. Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1.7. Análisis descriptivo de los datos . . . . . . . . . . . . . . . . . . 40
1.8. Principales herramientas del control de calidad . . . . . . . . . . 41
1.8.1. Hojas de datos . . . . . . . . . . . . . . . . . . . . . . . 42
1.8.2. Diagrama de Pareto . . . . . . . . . . . . . . . . . . . . 42
1.8.3. Diagrama causa-efecto o de Ishikawa . . . . . . . . . . . 44
1.8.4. Histograma. . . . . . . . . . . . . . . . . . . . . . . . . . 46
1.8.5. Diagrama de dispersión o correlación . . . . . . . . . . . 47
1.9. Medidas estadísticas . . . . . . . . . . . . . . . . . . . . . . . . 49
ÍNDICE GENERAL iii
1.9.1. Medidas de dispersión . . . . . . . . . . . . . . . . . . . 50
1.10. Gráficos de control. . . . . . . . . . . . . . . . . . . . . . . . . . 53
2. Cómo funcionan los gráficos de control 57
2.1. Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2.2. Relación con el contraste de hipótesis . . . . . . . . . . . . . . . 60
2.2.1. Errores de tipo I y II o riesgos del vendedor y comprador 60
2.2.2. Subgrupos racionales. Tamaño de muestra y frecuencia
de muestreo . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.3. Tipo de gráficos de Control . . . . . . . . . . . . . . . . . . . . 62
2.4. Intervalos de tolerancia. Calidad y coste. . . . . . . . . . . . . . 63
2.4.1. El concepto de capacidad . . . . . . . . . . . . . . . . . . 65
2.5. Interpretación de los gráficos de control . . . . . . . . . . . . . . 65
3. El control de fabricación por variables 69
3.1. Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.2. Gráficos de control para variables . . . . . . . . . . . . . . . . . 69
3.2.1. Gráficos de control () . . . . . . . . . . . . . . . . . 71
3.2.2. Gráficos de control ( ) . . . . . . . . . . . . . . . . . . 73
3.2.3. Gráfico de desviaciones típicas . . . . . . . . . . . . . . 74
3.2.4. Gráficos de control (b) . . . . . . . . . . . . . . . . . . 74
3.3. Otros gráficos de control para variables . . . . . . . . . . . . . . 75
3.3.1. Gráficos con valores poblacionales conocidos . . . . . . . 75
3.3.2. Gráficos probabilísticos . . . . . . . . . . . . . . . . . . . 77
3.3.3. Gráficos para medidas individuales . . . . . . . . . . . . 77
3.4. Intervalos de tolerancia. Calidad y coste. . . . . . . . . . . . . . 78
3.5. El concepto de capacidad . . . . . . . . . . . . . . . . . . . . . 80
3.6. Curva característica de operación (Curva OC) . . . . . . . . . . 83
3.7. El ARL para gráficos de variables . . . . . . . . . . . . . . . . . 86
3.8. Ejercicios del tema . . . . . . . . . . . . . . . . . . . . . . . . . 88
3.8.1. Ejercicio 1: . . . . . . . . . . . . . . . . . . . . . . . . . 88
3.8.2. Ejercicio 2 . . . . . . . . . . . . . . . . . . . . . . . . . . 88
3.8.3. Ejercicio 3 . . . . . . . . . . . . . . . . . . . . . . . . . . 89
3.8.4. Ejercicio 4 . . . . . . . . . . . . . . . . . . . . . . . . . . 90
4. El control de fabricación por atributos. 91
4.1. Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
4.2. Gráficos de atributos tipo p y np . . . . . . . . . . . . . . . . . 92
4.2.1. Gráfico tipo p . . . . . . . . . . . . . . . . . . . . . . . . 92
4.2.2. Gráficos de control np . . . . . . . . . . . . . . . . . . . 94
4.2.3. Curva característica de operación (OC) y curva ARL . . 94
4.3. El control de fabricación por número de defectos. . . . . . . . . 99
4.3.1. Gráficos de control tipo c . . . . . . . . . . . . . . . . . . 100
4.3.2. Gráficos de control tipo u . . . . . . . . . . . . . . . . . 100
4.3.3. Sistemas de demérito . . . . . . . . . . . . . . . . . . . . 101
iv ÍNDICE GENERAL
4.4. Ejercicios: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
5. Estimación de la capacidad mediante índices 103
5.1. Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.2. Concepto probabilístico de capacidad . . . . . . . . . . . . . . . 104
5.3. Índices de capacidad . . . . . . . . . . . . . . . . . . . . . . . . 105
5.3.1. Índices generalizados o de cuarta generación . . . . . . . 107
5.3.2. Índices y capacidad del proceso . . . . . . . . . . . . . . 108
5.4. Índices en metrología dimensional . . . . . . . . . . . . . . . . . 109
5.5. Intervalos de confianza y contrastes para la estimación de los
índices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
5.6. Ejercicio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
6. Otros gráficos de control univariantes. 115
6.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
6.2. Gráficos de control para medias individuales . . . . . . . . . . . 116
6.3. Gráficos CUSUM . . . . . . . . . . . . . . . . . . . . . . . . . . 119
6.3.1. Construcción del gráfico CUSUM tabular . . . . . . . . . 122
6.3.2. Construcción del gráfico CUSUM con máscara V . . . . 123
6.4. Gráficos de control de medias móviles ponderadas exponencial-
mente (EWMA) . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
6.4.1. Construcción del gráfico . . . . . . . . . . . . . . . . . . 129
7. Gráficos de control multivariantes. 133
7.1. Introducción: el enfoque multivariante . . . . . . . . . . . . . . . 133
7.2. Control independiente de las variables . . . . . . . . . . . . . . . 134
7.3. Variable aleatoria p-dimensional . . . . . . . . . . . . . . . . . . 135
7.3.1. Estimación del vector de medias y de la matriz de varianzas-
covarianzas . . . . . . . . . . . . . . . . . . . . . . . . . 137
7.3.2. La distribución normal multidimensional . . . . . . . . . 138
7.4. La T2 de Hotelling . . . . . . . . . . . . . . . . . . . . . . . . . 139
7.4.1. Caso bidimensional . . . . . . . . . . . . . . . . . . . . . 139
7.4.2. Caso multidimensional . . . . . . . . . . . . . . . . . . . 140
7.5. Componentes principales . . . . . . . . . . . . . . . . . . . . . . 143
7.6. Gráficos MCUSUM . . . . . . . . . . . . . . . . . . . . . . . . . 143
7.7. Gráficos MEWMA . . . . . . . . . . . . . . . . . . . . . . . . . 144
7.8. Control-charts de procesos multivariantes basados en el concepto
de profundidad de datos . . . . . . . . . . . . . . . . . . . . . . 153
7.8.1. Profundidad de datos . . . . . . . . . . . . . . . . . . . . 155
7.8.2. r-charts . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
7.8.3. Q-charts . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
7.8.4. DDMA-charts . . . . . . . . . . . . . . . . . . . . . . . . 157
7.8.5. S-charts . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
ÍNDICE GENERAL v
8. Control de Recepción. 161
8.1. Fundamentos estadísticos de los planes de muestreo . . . . . . . 161
8.2. Planes de muestreo . . . . . . . . . . . . . . . . . . . . . . . . . 162
8.3. Plan de muestreo simple por atributos . . . . . . . . . . . . . . 163
8.3.1. Curva OC para un plan de muestreo simple . . . . . . . 164
8.4. Planes de muestreo dobles y secuenciales . . . . . . . . . . . . . 168
8.5. Planes de muestreo Rectificativos . . . . . . . . . . . . . . . . . 170
8.6. Control de recepción por variables . . . . . . . . . . . . . . . . . 172
8.7. Diseño de planes de muestreo . . . . . . . . . . . . . . . . . . . 173
8.7.1. El plan Military Standard para atributos (MIL-STD-
105D ó ANSI/ASQC Z1.4 ó UNE 66020) . . . . . . . . . 173
8.7.2. El plan Military Standard para variables (MIL-STD-414
o ANSI/ASQC Z1.9) . . . . . . . . . . . . . . . . . . . . 175
8.7.3. El plan japonés JIS Z 9002 . . . . . . . . . . . . . . . . . 175
8.7.4. Planes Dodge-Romig de control rectificativos . . . . . . . 175
9. Fiabilidad. Principios básicos 177
9.1. Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
9.2. Concepto probabilístico de fiabilidad . . . . . . . . . . . . . . . 178
9.3. Características de los datos usados en fiabilidad . . . . . . . . . 179
9.4. Características de los modelos usados en fiabilidad . . . . . . . . 180
9.5. Principales distribuciones para fiabilidad . . . . . . . . . . . . . 181
9.5.1. Distribución exponencial y Distribución gamma . . . . . 181
9.5.2. Distribución gamma . . . . . . . . . . . . . . . . . . . . 183
9.5.3. Distribución Normal y lognormal . . . . . . . . . . . . . 184
9.5.4. Distribución de Weibull . . . . . . . . . . . . . . . . . . 184
9.6. Estimadores no paramétricos de la fiabilidad . . . . . . . . . . . 185
9.7. Análisis de los datos de tiempos de fallo en motores. . . . . . . . 188
9.7.1. Estimador no paramétrica de la fiabilidad con el esti-
mador Kaplan-Meier. . . . . . . . . . . . . . . . . . . . . 190
9.8. Análisis de los datos de tiempos de fallo en motores. Problema 2. 192
9.8.1. Ajuste de una distribución Normal . . . . . . . . . . . . 192
9.8.2. Ajuste Weibull . . . . . . . . . . . . . . . . . . . . . . . 192
9.8.3. Contrastes de bondad de ajuste . . . . . . . . . . . . . . 195
9.8.4. Estimador no paramétrica de la fiabilidad con el esti-
mador Kaplan-Meier. . . . . . . . . . . . . . . . . . . . . 195
9.9. Fiabiliadad de Sistemas . . . . . . . . . . . . . . . . . . . . . . . 196
9.9.1. Sistemas en Serie y en parelelo . . . . . . . . . . . . . . . 197
9.9.2. Fiabilidad en serie . . . . . . . . . . . . . . . . . . . . . 199
9.9.3. Fiabilidad en paralelo . . . . . . . . . . . . . . . . . . . . 201
9.10. Sistemas reparables . . . . . . . . . . . . . . . . . . . . . . . . . 203
9.10.1. Modelo noparamétrico para estimar el MCF (Mean Cu-
mulative Function) . . . . . . . . . . . . . . . . . . . . . 203
9.10.2. Apuntes sobre el coste del ciclo de vida (LCC) . . . . . . 204
9.10.3. Relación vida útil con curvas de rodaje . . . . . . . . . . 204
vi ÍNDICE GENERAL
10.Modelos de degradación y test de vida acelerada 207
10.0.4. Estimación de la distribución . . . . . . . . . . . . . . . 207
10.1. Pruebas de vida aceleradas (ALT) . . . . . . . . . . . . . . . . . 207
10.1.1. Métodos de aceleración . . . . . . . . . . . . . . . . . . . 208
10.1.2. El Modelo de Arrhenius . . . . . . . . . . . . . . . . . . 210
11.Diseños de Experimentos para calidad y fiabilidad 211
11.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
11.2. Conceptos básicos . . . . . . . . . . . . . . . . . . . . . . . . . . 211
11.3. Principios básicos de un diseño . . . . . . . . . . . . . . . . . . 212
11.4. Etapas de un diseño . . . . . . . . . . . . . . . . . . . . . . . . 213
11.5. El ANOVA con un factor para diseño de experimentos . . . . . 215
11.5.1. Diseño completamente aleatorizado . . . . . . . . . . . . 215
11.6. Diseños factoriales . . . . . . . . . . . . . . . . . . . . . . . . . 220
11.7. Factoriales completos . . . . . . . . . . . . . . . . . . . . . . . . 221
11.7.1. Cálculo de efectos e interacciones . . . . . . . . . . . . . 222
11.8. Factoriales fraccionales . . . . . . . . . . . . . . . . . . . . . . . 224
11.9. Otros diseños de experimentos en la industria . . . . . . . . . . 225
11.9.1. Diseños tipo Taguchi . . . . . . . . . . . . . . . . . . . . 225
11.9.2. Diseños de procesos robustos . . . . . . . . . . . . . . . . 226
11.9.3. Diseños Plackett-Burman . . . . . . . . . . . . . . . . . . 226
11.9.4. Superficies de Respuesta . . . . . . . . . . . . . . . . . . 227
11.9.5. El modelo ANOVA FUNCIONAL . . . . . . . . . . . . . 229
11.9.6. Estudio de la profundidad de los datos. . . . . . . . . . . 231
12.Apéndices 235
12.1. Apéndice 1. Resumen de fórmulas . . . . . . . . . . . . . . . . . 235
12.2. Introducción al programa estadístico R . . . . . . . . . . . . . . 236
12.2.1. Introducción al R . . . . . . . . . . . . . . . . . . . . . . 236
12.2.2. El entorno de trabajo en R . . . . . . . . . . . . . . . . . 237
12.2.3. Objetos . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
12.2.4. ¿Cómo introducir datos? Vectores . . . . . . . . . . . . . 238
12.2.5. Función edit . . . . . . . . . . . . . . . . . . . . . . . . . 239
12.2.6. Importando ficheros de datos . . . . . . . . . . . . . . . 239
12.2.7. Matrices en R . . . . . . . . . . . . . . . . . . . . . . . . 239
12.2.8. Data-frames . . . . . . . . . . . . . . . . . . . . . . . . . 241
12.2.9. Estadística descriptiva con R . . . . . . . . . . . . . . . 241
12.2.10.Variables k-dimensionales . . . . . . . . . . . . . . . . . 243
12.2.11.Modelos de Regresión en R . . . . . . . . . . . . . . . . 244
12.2.12.Modelos de regresión paramétricos lineales . . . . . . . . 244
12.2.13.Distribuciones de Probabilidad . . . . . . . . . . . . . . 247
12.2.14.Inferencia estadística con R . . . . . . . . . . . . . . . . 248
12.2.15.Contraste de hipótesis . . . . . . . . . . . . . . . . . . . 250
12.2.16.Estimación no paramétrica de la densidad . . . . . . . . 251
12.2.17.Diseño de Experimentos con R . . . . . . . . . . . . . . . 253
ÍNDICE GENERAL vii
viii ÍNDICE GENERAL
1. INTRODUCCIÓN AL CONTROL DE
LA CALIDAD.
Contenido del tema: Introducción. Definiciones y tipos de control. Reseña
histórica del control de calidad y de la fiabilidad. Desafíos actuales.
1.1. Introducción.
En este primer capítulo se introducen las ideas básicas sobre el control es-
tadístico de la calidad y de la fiabilidad. El objetivo es presentar los conceptos
fundamentales de estas técnicas y analizar los cambios como han ido aparecien-
do a lo largo de la Historia. Para ello se realizará un breve recorrido histórico,
que irá, desde las primeras definiciones hasta el momento actual, con el obje-
to de ver la evolución de los conceptos básicos y presentar a los autores que
ayudaron a hacerlo posible.
En un principio, las primeras definiciones de calidad de un producto se
centraban en ajustar la producción a un modelo estándar, lo que podría lla-
marse .aptitud para el uso", para, con el tiempo, basarse en la satisfacción de
los requerimientos del cliente y englobar a todos los participantes, amplian-
do también la aplicación no sólo a productos manufacturados sino a todos los
procesos industriales o al sector de los servicios.
Hoy en día, aunque han variado los objetivos de la calidad, sigue siendo
esencial la necesidad de controlarla y medidarla, pero ampliando el control más
allá del proceso de fabricación. Han surgido otras dimensiones de la calidad,
como es la calidad del diseño (antes de la fabricación) o la fiabilidad como
calidad en el tiempo (posterior a la fabricación). En cualquier caso, cuando se
trata de controlar sea antes, durante o depués, es preciso medir y la Estadística
será la herramienta que debe de utilizarse. Esto justifica que esté más vigente
que nunca, si cabe, hablar de control estadístico de la calidad y de la fiabilidad,
pues la gran evolución que ha tenido la estadística en los últimos años propicia,
que sus aplicaciones al ámbito de la calidad y de la fiabilidad, una mejora
evidente en la resolución de problemas propios de estos campos.
En la actualidad nadie discute que la calidad supone un factor básico en
la toma de decisiones de cualquier consumidor tanto de productos como de
servicios. No importa que el consumidor (cliente o usuario de un servicio) sea
una persona, una pequeña empresa, una gran industria o una empresa pública,
no hay duda que la mejora de la calidad representa una oportunidad para el
éxito y la competitividad.
INTRODUCCIÓN AL CONTROL DE LA CALIDAD. 1
Cualquier producto o servicio, sea un automóvil, un teléfono móvil, una
tostadora o un servicio de transporte tienen la posibilidad de ser medidos,
por tanto, siempre será posible analizar variables que permitan controlar cier-
tas características. Estas características medibles de calidad pueden ser físicas
(longitud, peso, densidad, tensión), sensoriales (color, sabor, acabado) o bien
relacionados con la vida útil del producto, es decir, cuánto tiempo va a man-
tenerse un producto con las condiciones óptimas para su uso, esto nos llevará
a los llamados estudios de fiabilidad del producto, entendida la fiabilidad co-
mo calidad a través del tiempo ("quality over time"). Por tanto, aunque el
tratamiento de la fiabilidad (también denominada confiabilidad), suele hacerse
por separado, en este manual se propondrá estas técnicas de fiabilidad como
un eslabón más de la cadena para el control de la calidad, pues aunque un
producto pueda salir de fábrica en condiciones aceptables para su empleo, es
muy importante que estas condiciones sean perdurables en el tiempo.
La importancia que tienen los métodos estadísticos para el control, tanto
de la calidad como de la fiabilidad, radica en la premisa de que el error es algo
inherente a cualquier proceso de fabricación, por tanto, se parte de la base
que esas características medibles de calidad o de fiabilidad de un producto
o servicio presentan cierta variabilidad. Esta variabilidad, lógicamente, será
indeseable y un objetivo importante será analizarla y reducirla o, al menos,
mantenerla dentro de unos límites de especificación.
El control estadístico tendrá como misión aportar las herramientas, de tipo
estadístico, para controlar e intentar medir, y si es posible reducir, esa variabil-
idad inherente al producto o servicio. De este modo, podría definirse el control
estadístico de la calidad como el conjunto de técnicas estadísticas utilizadas
para "medir"la calidad y compararla con las especificaciones o requisitos del
cliente, con la intención de poder tomar medidas correctivas para su mejora,
que en la mayoría de los casos estarán orientadas a la reducción de la variabil-
idad.
Para comprender como ha ido evolucionando los conceptos del control de la
calidad y la fiabilidad, se presentan algunas de estas definiciones básicas y se
enumeran los distintos tipos de control en la siguiente sección. En una sección
se hace una breve introdución a la fiabilidad para posteriormente dar un recor-
rido histórico y terminar el capítulo con algunas de las nuevas metodologías
existentes.
1.2. Definiciones básicas de calidad
Cuando se pretende aclarar que se entiende por calidad se pueden encon-
trar diferentes definiciones en función de la fuente o de la época en las que se
enunciaron. Una de las más aceptadas es la definición que aporta la conoci-
da norma ISO, que define la calidad como el conjunto de características de
2 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.
un producto, proceso o servicio que le confieren su aptitud para cumplir los
requisitos de los usuarios o clientes, o de otras partes interesadas.
Esta definición de la norma ISO, engloba muchas de las ideas que apare-
cen en definiciones anteriores, como las dadas por Houghton (calidad total),
quien dice que la calidad es saber qué debe hacerse, tener las herramientas para
hacerlo correctamente y luego hacerlo correctamente a la primera; o la propor-
cionada por el japonés Genichi Taguchi, que define la calidad de un producto
como la mínima pérdida impuesta por este producto a la sociedad durante su
vida útil.
Por otra parte, desde la perspectiva del control estadístico, una de las defini-
ciones que hacen incidencia en la idea de variabilidad, es la que aporta el
profesor Douglas Montgomery, quien afirma que la calidad es inversamente
proporcional a la variabilidad.
Al igual que en el caso de definir calidad existen varias versiones, también
ocurre lo mismo en para el control de la calidad. Así, la norma europea
UNE lo define como el conjunto de técnicas y actividades de carácter operativo,
utilizadas para satisfacer los requisitos relativos a la calidad. Esta definición es
similar a la aportada por la norma americana ANSI, que afirma que el control
de calidad será el conjunto de técnicas y actividades que sustentan la calidad de
un producto o servicio para satisfacer unas determinadas necesidades. Mientras
que su correspondiente norma japonesa, la JISZ, influenciada por las ideas de
Taguchi, define el control como el sistema por el cual la calidad de los bienes y
servicios se consigue de forma económica cumpliendo al mismo tiempo con los
requerimientos del cliente.
Uno de los grandes gurús del control de la calidad, el profesor Joseph Juran,
en su libro "Quality Control Handbook", define el control de calidad como
"proceso regulador a través del cual se mide la calidad conseguida, se compara
con los estándares y se actúa sobre la diferencia". Como puede apreciarse,
esta definición se centra en el proceso productivo, el objetivo es buscar que los
productos se ajusten a un modelo preestablecido por el fabricante ("ajuste a
un estándar"), con el tiempo se buscará también la aptitud para el uso final, es
decir, se tendrá en cuenta el usuario final así aparece la idea de la satisfacción
del cliente ("el cliente siempre tiene razón").
1.2.1. Tipos de control
El control de calidad puede ser aplicado en diferentes partes del proceso.
Comúnmente, suele clasificarse, en función del momento en que se aplique el
control, dos tipos diferentes de control el de fabricación y el de recepción. El
control de fabricación, será aquel que se realiza durante la fase de fabricación
de un producto. Normalmente se lleva a cabo a intervalos de tiempo fijos y
tiene por objeto vigilar el funcionamiento correcto del sistema para que este
se encuentre en las mejores condiciones posibles así como tratar de mejorarlo.
DEFINICIONES BÁSICAS DE CALIDAD 3
El llamado control de recepción, se aplica a una partida de un nuevo producto
(sea este un producto final, una materia prima o un producto semielabora-
do). El objetivo de este último control es el de comprobar que se verifican las
especificaciones establecidas.
Además, se puede diferenciar otro tipo de controles en función de la forma
en que se observa la calidad. Así se hablará del control por variables, cuando se
mide una característica cuantitativa de un producto o servicio (peso, longitud,
resistencia, tiempo de espera, etc.). Se llamará control por atributos, cuando
el estudio recae en medir una característica cualitativa que el producto puede
presentar o no (una pieza es correcta o defectuosa, se acopla o no se acopla en
otra, etc.). En este caso del control por atributos suele también diferenciarse
el control por número de defectos cuando lo que se observa es el número de
defectos de cada elemento (una pieza puede presentar uno, dos o más defectos).
Es obvio que el control de calidad por variables da más información que el
control por atributos. Así, por ejemplo, si se examina una serie de piezas que
deben acoplar en otra pieza matriz, de una determinada longitud, se obtendrá
más información analizando la medida de cada pieza (variable cuantitativa)
que solamente observando si la pieza se acopla o no en su matriz (atributo).
A pesar de ello, en ocasiones se usa el control por atributos, por motivos de
coste económico, cuando el objetivo es únicamente verificar las especificaciones
previstas.
1.2.2. Control estadístico y control ingenieril de Procesos
Es frecuente denominar al control estadístico de la calidad, control es-
tadístico de procesos (CEP o SPC del inglés), esta versión proviene de la
orientación hacia los procesos industriales, aunque lógicamente la idea de proce-
so abarca mucho más. Desde esta perspectiva, un proceso es una secuencia de
operaciones en la que intervienen una serie de elementos o agentes y que tienen
como finalidad la fabricación de un producto o la prestación de un servicio.
Podemos pensar el proceso de fabricación de un coche, pero también podemos
pensar como proceso el viaje que realizamos para ir de casa al trabajo, o el
proceso de aprendizaje necesario para superar una materia.
Cada una de las operaciones está sujeta a una variabilidad, ya que está
afectada por un gran número de causas, que dan lugar a la variabilidad que
presenta el producto final. Asumida la imposibilidad de fabricar dos elementos
que sean exactamente iguales, aunque si esta variabilidad está acotada entre
unos límites fijos, podremos considerar como razonablemente iguales a elemen-
tos que en realidad no lo son.
Los distintos factores que afectan a un proceso pueden resumirse en el
concepto de las 5M´s empleado también en la elaboración del diagrama causa-
efecto, y que son:
4 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.
Mano de obra.
Maquinaria.
Método de producción.
Medio exterior.
Material empleado.
Además, el proceso de medición de las características que se consideren de
interés para la determinación de la calidad, también está sujeta a variabilidad,
ampliando así el concepto a las 6 M´s.
Hoy en día existe también la tendencia a estudiar la calidad ligada a proyec-
tos. Esta es una interesante opción que está siendo aplicada enmuchas empresas
e instituciones que la engloba en los objetivos marcados dentro de la Dirección
de Proyectos.
1.2.3. Proceso bajo control
Un concepto muy importante en el control de calidad es el de proceso
bajo control. Para explicar su significado es necesario introducir previamente
lo que se entiende por causas de variabilidad asignables y no asignables.
Se llamarán causas asignables (especiales o esporádicas) de variabilidad
a las que producen efectos predecibles que aumentan la variabilidad. Normal-
mente son muy pocas, pero de mucha influencia. Por ejemplo un fallo en una
máquina, una mezcla de materias primas en una proporción inadecuada, etc.
Por el contrario, se llamarán causas no asignables (comunes o aleatorias)
a aquellas que aparecen con efectos combinados, no predecibles de antemano
e inherentes a la incertidumbre del proceso productivo. Suele haber muchas
causas no asignables, cada una de las cuales tiene un efecto individual muy
pequeño. Ejemplos de estas son la heterogeneidad de las materias primas, la
precisión de las máquinas, la de los elementos de medida o la destreza de los
operarios, entre otras.
Estudiando con detalle un proceso, es posible eliminar todas las causas
asignables de variabilidad, para que así, la única variabilidad existente se deba
a causas no asignables. En tal caso, diremos que el proceso se encuentra ba-
jo control (o en estado de control). En la práctica, no existen procesos que
se encuentren espontáneamente bajo control. A menudo son necesarios mu-
chos esfuerzos para conseguir llevar un proceso a un estado de control. Ese es,
precisamente, uno de los objetivos del control de procesos.
La existencia de tolerancias obliga a que las unidades que no cumplan este
requisito sean consideradas como defectuosas o, en términos más usuales, no
conformes. La producción de este tipo de unidades, o su rectificación, conlleva
DEFINICIONES BÁSICAS DE CALIDAD 5
un coste que podría ser eliminado; pero también la inspección y la búsqueda de
las causas de esta situación presenta un coste monetario cada vez mayor. Surge
así el reto de intentar reducir la proporción de unidades no conformes hasta
un punto en el que el incremento del coste de inspección y control iguale al
incremento de ahorro por la disminución del número de unidades rechazadas.
La inspección o medición de algunas características de calidad (como pueden
ser la resistencia o tiempo de vida útil) son de carácter destructivo, por lo que
no pueden ser llevadas a cabo sobre todas las unidades; incluso aunque las
pruebas no fuesen destructivas, la inspección del 100% de la producción puede
ser improcedente económicamente. Aparece entonces la necesidad de garantizar
la viabilidad de la producción de forma general mediante la inspección de una
parte significativa de ésta y, por tanto, la necesidad de determinar qué propor-
ción de unidades debe ser inspeccionada, cómo seleccionar dichas unidades y
cómo garantizar que los resultados obtenidos son extrapolables a la generalidad
de la producción.
Las causas asignables dan lugar a dos tipos distintos de modificaciones:
modificaciones por descentrado y modificaciones por aumento de
variabilidad. Las primeras son las que se producen cuando se presenta una
traslación del valor medio de la característica de calidad, mientras que en las
segundas lo que ocurre es un aumento de la variabilidad (véase gráfico):
Figura 1-1 Modificaciones por descentrado.
Figura 1-2 Modificaciones por aumento de la dispersión.
6 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.
Las modificaciones por descentrado del proceso se observan sobre todo en
procesos de fabricación automáticos mientras que en los semiautomáticos son
más frecuentes las modificaciones por dispersión. En la práctica, ambos tipos
de modificaciones se mezclan y confunden, dando lugar en cualquier caso a un
incremento del número de piezas fuera de especificación.
Las técnicas de control de calidad en curso de fabricación tienen por objeto
mantener estable la variabilidad propia del proceso y detectar con la mayor
eficacia posible la aparición de causas asignables de fluctuación. La manera de
controlar un proceso es mediante el control de la variabilidad.
1.2.4. Control ingenieril de procesos
Es frecuente diferenciar entre el control estadístico de procesos (EPS) y el
control ingenieril de procesos (EPC), sin embargo, la principal diferencia
es que este último suele tener como base el concepto de feedback, conocido como
retroalimentación, y que se refiere a la capacidad del emisor para recoger las
reacciones de los receptores.
Un objetivo del control estadístico de procesos (SPC) es identificar la nat-
uraleza de las causas comunes de variabilidad (aquéllas que están permanente-
mente presentes en un proceso) y cuantificar su efecto, con el fin de establecer la
capacidad del proceso para las diferentes características de calidad. Además
el SPC busca también el establecimiento de un sistema de observación, perma-
nente, que detecte precozmente la aparición de causas especiales de variabilidad
y ayude a identificar su origen.
Podría decirse que la filosofía del control ingenieril de procesos (EPC) es
que tiene como objetivo la regulación de procesos, utilizando la información
obtenida “on-line” en el proceso para manipular de forma óptima las variables
compensatorias, con el fin de ajustar lo mejor posible las características de
calidad a sus valores deseados.
Estas condiciones, en el contexto de control de calidad, son equivalentes a
que por una parte el efecto de las causas comunes de variabilidad debe tener
una cierta “inercia”, que permita predecir, a partir de los valores observados en
un momento de las características de calidad, los valores más probables en un
futuro inmediato si no se actuara sobre el proceso. Una segunda condición para
implementar el control feedback hace referencia a la existencia en el proceso de
variables compensatorias, fácilmente manipulables por los operadores, cuya
modificación tenga un efecto sobre las características de calidad que se desea
controlar.
Un ejemplo de control de procesos mediante feedback puede ser el fun-
cionamiento del termostato de un frigorífico o de una calefacción: una vez
fijada la temperatura ideal, el termostato reactiva el motor del frigorífico, o
del circuito de calentamiento, cada vez que la temperatura real se aparta de la
cifra prefijada (por exceso o defecto) reconduciendo la temperatura al valor de
DEFINICIONES BÁSICAS DE CALIDAD 7
aquella.
Es un error muy frecuente en la industria la confusión entre ambos aspectos
de control y, en particular, la creencia de que los gráficos de control clásicos
del SPC son los que indican, a partir de las señales de salidas de control, la
necesidad de adoptar una decisión de regulación del proceso manejando una
variable compensatoria. Una señal de falta de control (si el gráfico se ha con-
struido correctamente) indica la aparición en el proceso de una causa especial
que debe ser identificada, pero el proceso, aun hallándose bajo control, puede
presentar una variabilidad indeseable que quizás sea posible reducir manejando
adecuadamente variables compensatorias mediante el EPC. En definitiva, SPC
y EPC no son dos alternativas excluyentes, sino dos enfoques complementar-
ios, y ambos deben ser utilizados, siempre que sea posible, para optimizar el
proceso.
1.2.5. Introducción a la fiabilidad
En el caso de la fiabilidad existe un mayor consenso para su definición, así
una de las definiciones más comúnmente aceptadas es la proporcionada por
Condra, quien la define como calidad a través del tiempo. Más concretamente,
se puede definir la fiabilidad de un producto o equipo como la probabilidad de
que dicho producto o equipo funcione correctamente durante un período deter-
minado de tiempo en las condiciones para las que fue diseñado. Por lo tanto, un
producto fiable es aquel que permanece con una buena calidad, lo que obliga
a estar dentro de sus límites de especificación, durante su vida útil.
Dependiendo del enfoque dado a la fiabilidad, puede también encontrarse su
vinculación con el concepto de "misión.esta idea aparece vinculada a los inicios
de estos estudios, en el contexto de equipos diseñados para su uso militar,
aunque hoy en día sigue siendo utilizada también en diferentes campos. En
este caso se transforma el concepto de fiabilidad asociándola a que el equipo
funcione correctamente durante el tiempo de misión.
En el caso de la fiabilidad se suele diferenciar entre en fiabilidad de pro-
ductos y fiabilidad de sistemas, entendiendo un sistema como una colección
de componentes o subsistemas dispuestos de acuerdo a un diseño dado, con
el propósito de lograr el cumplimiento de una determinada misión. El tipo de
componentes, su cantidad, su calidad y el modo en que están dispuestas tendrá
un efecto directo en la fiabilidad del sistema.
La fiabilidad de un producto se puede definir (cualitativamente) como su
aptitud para realizar su función, durante un tiempo especificado, en condiciones
especificadas. Una definición probabilística común de fiabilidad, (Meeker y Es-
cobar, 1998), es la siguiente: “fiabilidad es la probabilidad de que una unidad
realice su función hasta un tiempo especificado bajo las condiciones de uso en-
contradas”. Es importante que esta probabilidad sea evaluada a las condiciones
ambientales o de uso encontradas por el producto, en lugar de las condiciones
8 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.
de trabajo para las que el producto fue diseñado.
Aunque los estudios de fiabilidad son de gran utilidad en todas las ramas
de la industria, por su amplia aplicación han surgido técnicas y normativas
específicas para el estudio de la fiabilidad de componentes electrónicas y para
la fiabilidad de los programas informáticos, rama esta última que se engloba en
la denominada fiabilidad del software. Así, Lawless, dice “la fiabilidad se refiere
al funcionamiento adecuado de equipos y sistemas, lo cual incluye factores como
software, hardware, humanos y ambientales”. Este es un concepto más amplio
y muestra la complejidad de lo que se entiende por fiabilidad, su evaluación, el
mantenimiento y su mejora.
Por otra parte, Condra afirma que “un producto fiable es aquel que hace
lo que el usuario quiere que haga cuando el usuario quiere que lo haga”. De
acuerdo con esto, la fiabilidad es calidad a través del tiempo, por lo tanto un
producto fiable debe permanecer dentro de sus límites de especificación durante
su vida tecnológica. Esto es, la buena calidad es necesaria pero no suficiente
para garantizar buena fiabilidad. Esto plantea otra dificultad, la fiabilidad de
un producto se puede evaluar directamente sólo después de que ha estado
en servicio por algún tiempo, por lo tanto, la evaluación y pronóstico de la
fiabilidad presenta varios desafíos técnicos, como por ejemplo, la propuesta
de buenas pruebas aceleradas para forzar el fallo del producto o de una
determinada componente.
Los enfoques con los que se puede tratar el estudio de la fiabilidad marcan
diferentes conceptos. Así, si se hace un estudio cuantitativo, se suelen analizar
las curvas de fiabilidad y definir una serie de medidas características propias
de esta materia: vida media (Mean-Time-To-Failure, MTTF) o la media entre
fallos (Men-Time_Between-Failures, MTBF). Un estudio cualitativo de la fia-
bilidad lleva al análisis modal de fallos y sus efectos (FMEA) o al análisis por
árboles de fallos (FTA). Existen métodos que permiten estimar estos valores
en función de las observaciones de los fallos de muestras de productos y que
serán el objeto de capítulos posteriores.
Surgen también otros conceptos asociados al estudio general de la fiabilidad,
como el de disponibilidad que se define como la relación entre el tiempo
operativo y el tiempo de vida considerado o el concepto de mantenibilidad
que será una medida de cómo de tan fácil y rápido puede un sistema o equipo
repararse después de un fallo.
Al igual que ocurre en el caso de la calidad, también existen normativas
específicas que regulan la fiabilidad, entre ellas cabe destacar la propuesta por
el ejército americano en el año 1991 para equipos electrónicos conocida como
norma 217F.
DEFINICIONES BÁSICAS DE CALIDAD 9
1.3. Breve reseña histórica
1.3.1. Antecedentes al control de la calidad
Aunque podría situarse el nacimiento del control estadístico de la calidad
en la primera mitad del siglo XX, con los trabajos pioneros sobre gráficos de
control utilizados en la Bell Telefhone Laboratories por Walter Shewart, es
evidente que a lo largo de la Historia hubo siempre un interés por controlar y
mejorar la calidad, como ejemplo de este interés y de la buena calidad alcanzada
son, sin duda, la mayoría de los monumentos y piezas artísticas, o de uso
cotidiano, que han resistido el paso del tiempo y que hoy podemos contemplar
en cualquier museo.
La importancia de controlar la calidad es tan antigua como la propia ex-
istencia de civilizaciones sobre el planeta. Así, se puede constatar como la
mayoría de las civilizaciones antiguas daban gran importancia a la calidad de
sus obras. Por ejemplo, en el Código de Hammurabi (2150 a. C.), se declara-
ba: “Si un constructor construye una casa para un hombre, y su trabajo no es
fuerte y la casa se derrumba matando a su dueño, el constructor será conde-
nado a muerte”. Otro caso similar es el de los inspectores fenicios, que tenían
por costumbre cortar la mano a quien hacía un producto defectuoso. Alrededor
del año 1450 a.C., los inspectores egipcios encargados de comprobar las me-
didas de los bloques de piedra en la construcción de las pirámides ya usaban
procedimientos de control. También se ha constatado que en otras culturas,
como la de los mayas o en la China imperial, también se usaron métodos de
control para verificar las grandes construcciones. Otros curiosos ejemplos son
algunas de los que se pueden encontrar en textos sagrados, así en la Biblia,
puede leerse: "Dios dio a Noé las especificaciones necesarias para construir el
Arca".
Llegada la Edad Media, cuando proliferaron los aprendices y los gremios,
el papel del artesano es a la vez de instructor como de inspector, también se
empeñaban en verificar que hubiera calidad en lo que hacían, es frecuente ver
acuñadas en obras de la época la marca de determinadas controles sobre las
piedras de los monumentos que hoy aún lucen en muchas localidades, a este
proceso inicial suele denominarse como çontrol de calidad del operario". El
gobierno fijaba y proporcionaba normas y, en la mayor parte de los casos, un
individuo podía examinar todos los productos y establecer un patrón de calidad
único. En este período, es cuando los gremios y hermandades establecen reglas
para que los aprendices puedan convertirse en maestros de un oficio.
Uno de los procedimientos más curioso, e innovador para su tiempo, del
que se tiene constancia, es el del control de la calidad mediante un esque-
ma de muestreo desarrollado por la Casa de la Moneda inglesa, que recibe el
nombre de trial of the pyx. Procede del reinado de Enrique II (1154-1189), y
su propósito era establecer si las monedas acuñadas respetaban las especifica-
10 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.
ciones establecidas por la Corona. El objetivo era verificar que los lingotes de
oro que se le suministraban a la casa de la moneda iban efectivamente desti-
nados en su totalidad a la acuñación de monedas. Para realizar este control se
guardaba en la Abadía de Westminster un lingote convenientemente pesado,
que se consideraba como patrón para la comparación de las monedas, y una
muestra de las monedas acuñadas, guardadas en una caja denominada “pyx”.
Cada determinado tiempo se realiza inspecciones llamadas trial of the pyx por
un jurado independiente de la casa de la moneda y de la casa real. El pyx era
abierto y los contenidos del mismo eran pesados y comparados con el estándar
guardado; si el resultado era satisfactorio, se anunciaba públicamente y se cel-
ebraba un banquete, mientras que en caso contrario, el jefe de la Casa de la
Moneda era obligado a solventar la situación. El trial of the pyx sería un primer
ejemplo de lo que con el tiempo se convertirá en el muestreo de aceptación.
Estos métodos de control de la calidad podían florecer en un mundo pequeño
y local, pero el crecimiento de la población mundial exigió más productos y,
como consecuencia, una mayor distribución a gran escala. Con la Revolución
Industrial, la producción en masa de productos manufacturados, que fue posible
mediante la división del trabajo, creó nuevos problemas para los que estaban
acostumbrados que propiciaron el nacimiento de nuevas herramientas para el
control.
Será el siglo XX el que se desarrollará una era tecnológica que permitió
que las masas obtuvieran productos hasta entonces reservados sólo para las
clases privilegiadas. Sin lugar a duda, entre los ejemplos más destacables de
popularización de artículos, antes pensados para unos pocos, está el caso del
automóvil. Será Henry Ford el que introduce uno de los cambios mayores en la
fabricación de productos: la producción en cadena. La producción de la línea de
ensamblaje dividió operaciones complejas en procedimientos sencillos, capaces
de ser ejecutados por obreros no especializados, dando como resultado produc-
tos de gran tecnología a bajo costo. Parte de este proceso fue una inspección
para separar los productos aceptables de los no aceptables. Será durante esta
época cuando el control de la calidad empieza a hacerse imprescindible en los
departamentos de fabricación.
1.3.2. Nacen los diagramas de control
La primera aplicación clara de métodos estadísticos al control de calidad fue
en el año 1924 llevada a cabo por Shewhart, cuando presentó su "diagrama de
control.a los responsables de la empresa en la que trabajaba, la Bell Telefhone
Laboratories. La Bell System y su subsidiaria manufacturera, la Western Elec-
tric, estuvieron a la cabeza en el control de la calidad instituyendo un departa-
mento de ingeniería de inspección que se ocupará de los problemas creados por
los defectos en sus productos. Además del ya mencionado Walter Shewhart,
George Edwars, H. F. Dodge y H. G. Romig serán miembros de dicho depar-
BREVE RESEÑA HISTÓRICA 11
tamento que aportarían grandes ideas al nacimiento del control de calidad.
Estos dos últimos serán los responsables de la creación de las primeras normas
para la inspección por muestreo, siendo aún utilizadas hoy en día las tablas de
Dodge-Romig.
Son destacables las palabras de Edwards cuando afirmó: "Existe el control
de la calidad cuando artículos comerciales sucesivos tienen sus características
más cercanas al resto de sus compañeros y más aproximadamente a la inten-
ción del diseñador de lo que sería el caso si no se hiciera la aplicación. Para
mí, cualquier procedimiento, estadístico u otro que obtenga los resultados que
acabo de mencionar es control de calidad, cualquier otro que no obtenga estos
resultados no los es". Edwards también acuñó la frase "seguridad en la calidad"
y la defendía como parte de la responsabilidad de la administración.
Aunque es en 1924 cuando Shewhart utiliza los gráficos de control (hoy en
día denominados gráficos Shewhart) la publicación de sus trabajos no llegaría
hasta el año 1931 cuando aparece el artículo sobre gráficos de control .Economic
Control of Quality of Manufactured Product"(véase los trabajos de Shewhart
en bibliografía).
Estos investigadores de la Bell Sytem, en colaboración con sociedades como
la American Society for Testing and Materials (ASTM) emprenderán una cam-
paña de divulgación de sus técnicas que logrará su expansión a otras empresas,
tanto dentro de estados unidos como en Europa, pues Shewhart viajará a Lon-
dres para impartir distintas conferencias. También es destacable la implicación
del profesor H. A. Freeman que promoverá la utilización del control estadísti-
co de la calidad en sus cursos del prestigioso MIT (Massachusetts Institute of
Thecnology).
La Segunda Guerra Mundial aceleró la implantación de estos métodos de
control de la calidad, propiciando el nacimiento de departamentos de calidad
en las fábricas de armamento. Con el tiempo, estos primeros departamentos
de calidad irán trasladándose a todo tipo de fábricas al comprobar los buenos
resultados que aportan en la mejora de los productos.
1.3.3. Se aplican planes de muestreo (control de aceptación)
Como ya se mencionó anteriormente, el interés del control de calidad en la
Inglaterra data ya de la época de los tudor. Pero será en el año 1935, cuan-
do el estadístico Egon Pearson, que será el profesor que invita a Shewart a
Europa (previamente, en 1941, había estado en USA invitado por el propio
Shewart), quien contribuye al desarrollo de la norma British Standard 600
para la aceptación de muestras del material de entrada, que sería reemplaza
por la British Standard 1008, adaptación del 4l U.S. Z —1 Standard desarrollado
durante la Segunda Guerra Mundial.
Es por tanto, en la década de los cuarenta cuando comenzó el desarrollo
y aplicación de tablas de muestreo para inspecciones de aceptación y
12 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.
se publicaron tablas de muestreo para usos militares, probando su empleo por
parte de las fuerzas armadas.
Este apoyo gubernamental al control de calidad fue posible gracias al im-
pulso dado en las fábricas de armamento, que propiciaron que especialistas
de la Bell Telephone se trasladaran a Washington para elaborar programas de
inspección por muestreo para el ministerio de defensa. Estas colaboraciones
dieron lugar a unas tablas de inspección por muestreo que aparecieron en 1942
y que posteriormente serían la base de las conocidas normasMilitar Standard
105D, que aún hoy sigue a ser utilizada para las inspecciones de aceptación
por muestreo de atributos y las Militar Standard 414 para muestreos de
aceptación basados en variables.
1.3.4. Aparecen los departamentos de control de calidad
Será también en el año 1942 cuando se funda un grupo de investigación
estadística en la Universidad de Columbia, con objeto de desarrollar un método
de análisis secuencial y el empleo de técnicas de análisis multivariantes en
control de calidad, aparece así el empleo del estadístico T2 introducido por
Harold Hotelling, uno de los principales investigadores del grupo. El desarrollo
de estas técnicas pueden verse en varios artículos publicados posteriormente
como Sampling Inspection (1948), Techniques of Statistical Analysis (1947) y
Sequential Analysis of Statistical Data: Applications (1945).
En el año 1946 se fundó la ASQC (American Society for Quality Control) y
su presidente electo, George Edwars, declaró en aquella oportunidad: “La cali-
dad va a desempeñar un papel cada vez más importante junto a la competencia
en el costo y precio de venta, y toda compañía que falle en obtener algún tipo
de arreglo para asegurar el control efectivo de la calidad se verá forzada, a fin
de cuentas, a verse frente a frente a una clase de competencia de la que no
podrá salir triunfante”.
Será también en este mismo año, cuando Kenichi Koyanagi funde la JUSE
(Union of Japanese Scientists and Engineers) con Ichiro Ishikawa como su
primer presiente. Una de las primeras actividades de la JUSE fue formar el
Grupo de Investigación del Control de la Calidad (Quality Control Research
Group: QCRG) que darán un gran impulso al control de la calidad japonés,
que además de estar influidos por el carácter y la filosofía oriental de hacer
las cosas, promueven nuevos métodos como la creación de los círculos de la
calidad.
En 1954, Page desarrolla el gráfico de control de sumas acumuladas
(CUSUM) que intenta solucionar algunos problemas que presentaba el gráfico
de control Shewhart cuando los cambios en el proceso eran de pequeña magni-
tud. Este gráfico de control va a considerar la información pasada del proceso
en su desarrollo, lo que va a suponer que su comportamiento ante cambios de
pequeña magnitud va a ser mejor que el del gráfico Shewhart. También en esa
BREVE RESEÑA HISTÓRICA 13
fecha Juran empieza a difundir los métodos estadísticos y los sistemas de con-
trol de calidad entre todos los dirigentes y mandos intermedios de las empresas
japonesas.
En el año 1959, Roberts introduce el gráfico de control de medias móviles
exponencialmente ponderadas, conocido como gráfico EWMA (Exponential-
ly Weighted Moving Average). Este gráfico de control, al igual que el gráfico
CUSUM, va a comportase mejor en algunos aspectos que el tradicional gráfico
Shewhart, la idea es que la inclusión de la información pasada del proceso se
realiza mediante una ponderación exponencial considerándolo como un proceso
estocástico.
En los procesos de producción actuales, existe más de una característica
que influye en la calidad final de los productos. Para solventar este problema
y poder controlar varias características al mismo tiempo han proliferado últi-
mamente técnicas multivariantes de control. Dentro de éstas caben destacar
por su mayor desarrollo y aplicación el gráfico de control T2 de Hotelling y los
gráficos MCUSUM y MEWMA, extensiones al caso multidimensional de sus
correspondientes gráficos unidimensionales.
1.3.5. La expansión del control de calidad en y desde Japón
Un caso especial es la importancia que ha tenido la implementación del con-
trol de calidad en el Japón de final de la Guerra. Después de acabada la Segunda
Guerra Mundial, y tras la firma de la rendición habiendo sufrido el holocausto
nuclear, Japón necesitaba realizar la reconstrucción del país. Las fuerzas de
ocupación estadounidenses deciden apoyar esta reconstrucción enviando a un
grupo de expertos para ayudar en su labor. Entre los temas tratados por este
comité de expertos se incluyó el control estadístico de la calidad, aplicando
muchos de los conocimientos que habían sido implementado por Shewhart.
Se envió a Japón a un profesor de la Universidad de Columbia, Edwards
Deming, discípulo del propio Shewhart. En 1950, Deming, un estadístico que
trabajara en la Bell System con Edwards y Shewhart, fue invitado a hablar ante
los principales hombres de negocios del Japón. Deming los convenció de que
la calidad japonesa podría convertirse en la mejor del mundo al instituirse los
métodos que él proponía. Posiblemente, en la buena acogida de los principios
del control de la calidad en Japón, haya tenido mucho que ver la cultura de
este pueblo inspirada en el principio del kaizen, o continua búsqueda para
incrementar la mejora.
El programa de aplicaciones del control a la industria japonesa comenzó en
la década de los cincuenta, con la mejora del sistema de telecomunicaciones
de Japón, realizado por los ECL (Electrical Communication Laboratories),
de la compañía NTT (Nippon Telephone and Telegraph). Entre los japoneses
participantes en este proyecto destaca Genichi Taguchi, que participa con la
responsabilidad de promover la productividad en investigación y desarrollo
14 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.
para ECL. Para optimizar los costes de la experimentación, Taguchi desarrolló
un enfoque del diseño de experimentos en términos de costes: la variación
reducida se traduce en una mayor reproducibilidad, viabilidad y, finalmente,
en grandes ahorros en costes tanto para el fabricante como para el cliente.
Cualquier enfoque efectivo de la calidad debe dirigirse a la relación entre calidad
y coste.
Taguchi hará una estancia en en la Universidad de Princetown como In-
vestigador Asociado durante el año 1962. A su vuelta a Japón ocupará una
plaza de profesor en la Universidad Aoyama Gakuin, en Tokio, hasta 1982.
Durante este tiempo, formó a muchos ingenieros en la industria al tiempo que
colaboraba como consultor con las más importantes empresas japonesas.
Los métodos Taguchi se introdujeron en los Estados Unidos al principio de
la década de los ochenta en la AT&T Bell Laboratories, Ford Motor Company y
Xerox Corporation. La también llamada ingeniería de calidad de Taguchi
se basa en el empleo de una serie de métodos y desarrollos, tanto estadísticos
como propios de ingeniería, así como unos aspectos filosóficos y culturales que
enmarcan todo el proceso.
Serán también destacables las aportaciones del profesor Ishikawa, que in-
tentó implicar en la calidad a todos los estamentos de la empresa, poniéndola
al alcance de los niveles más bajos, desarrolló las siete herramientas básicas
de la calidad y propuso la creación de los círculos de calidad.
Cada año se otorgan en Japón los Premios Deming a la persona o institución
que destaque en la aplicación del control de la calidad. Algunas de las empresas
que han obtenido dichos premios incluyen a empresas conocidas, como el caso
de Nissan, Toyota, Hitachi y Nipon Steel. En 1989, la Florida Power and Light
Company fue la primera compañía no japonesa en ganar el premio Deming.
Deming regresó de Japón en los años 70 a Estados Unidos y se hizo profeta
en su tierra. A partir de ese momento, empezó a calar la idea de garantía
de calidad entre los ingenieros americanos. Desgraciadamente la reacción en
Europa ha sido, en muchos casos, bastante más tardía quedando todavía mucho
por hacer.
1.3.6. Control de la calidad total (TQC)
En la década de los 60 y 70, Armand Feigenbaum sienta los principios
básicos del control de la calidad total (Total Quality Control, TQC): "el
control de la calidad existe en todas las áreas de los negocios, desde el diseño
hasta las ventas". Hasta ese momento los esfuerzo en la calidad habían estado
dirigidos a corregir actividades, no a prevenirlas. Es así que en 1958, un equipo
japonés de estudio de control de la calidad, dirigido por Kaoru Ishikawa, visitó
a Feigenbaum en General Electric; al equipo le gusto el nombre TQC y lo llevó
consigo al Japón; sin embargo, el TQC japonés difiere del de Feigenbaum.
El TQC requiere que todos los empleados participen en las actividades de
BREVE RESEÑA HISTÓRICA 15
mejoramientos de la calidad, desde el presidente y el staff de la organización
hasta los obreros, pasando por quienes atienden a los clientes.
Muchas empresas trabajan con el concepto de sistema Integral de Calidad,
que afecta al diseño, la fabricación y la comercialización, produciéndose un
fenómeno singular que afectó a la comercialización y economía industrial de
muchos países, aplicando los conceptos del aseguramiento de la calidad y
la prevención.
Hay que resaltar que el aseguramiento de la calidad no es sólo patrimonio de
la industria, sino que también ha trascendido a otros sectores como el caso de
los servicios (Service Quality Assurance: SQA). Así se han aplicado y siguen
utilizándose métodos para el control y la mejora de la calidad en hoteles,
hospitales, bancos y cualquier otro tipo de empresas de servicios.
El final de los década de los 70 y principio de los 80 fue marcado por un
empeño en la calidad en todos los aspectos de los negocios y organizaciones
de servicios, incluyendo las finanzas, ventas, personal, mantenimientos, admin-
istración, fabricación y servicios. La reducción en la productividad, los altos
costos, huelgas y alto desempleo hicieron que la administración se volviera hacia
el mejoramientos en la calidad como medio de supervivencia organizacional.
Hoy en día, aunque muchas empresas e instituciones siguen utilizando la
filosofía TQC, son más comunes políticas de calidad basadas en metodologías
Seis Sigma u otras en las que la optimización juegan un papel clave como el
caso de las debiminadas Lean. En cualquier caso, los objetivos siguen siendo
los mismos: dar mejores productos o servicios y más competitivos. Algunos
autores sostienen que estas nuevas metodologías de control de la calidad, en el
fondo, se basan en lo de que se hizo siempre pero con una mejor envoltura, lo
que resumen diciendo que se trata de un "vino viejo en botellas nuevas".
1.3.7. La normalización en el control de calidad
Para llevar a cabo controles de calidad en empresas e instituciones surgen
distintas organizaciones y asociaciones que crean una normativa propia a la
que deben acogerse estas empresas en aras de competir con sellos de calidad
reconocidos. Así surgen las normas ISO, las AENOR, las ASTM, etc.
La Organización Internacional para la Normalización (ISO), creada en 1947,
es una organización internacional no gubernamental, con sede en Ginebra, que
redacta y aprueba normas técnicas internacionales, en la actualidad está pre-
sente en 157 países (véase gráfica). Es el organismo encargado de promover el
desarrollo de normas internacionales de fabricación, comercio y comunicación
para todas las ramas industriales a excepción de la eléctrica y la electrónica.
Su función principal es la de buscar la estandarización de normas de productos
y seguridad para las empresas u organizaciones a nivel internacional.
La Organización ISO está compuesta por tres tipos de miembros:
16 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.
Figura 1-3 En verde se muestran los miembros natos de la ISO, en amarillo los
correspondientes, en rojo los suscritos y en negro el resto.
• Miembros natos, uno por país, recayendo la representación en el or-
ganismo nacional más representativo.
• Miembros correspondientes, de los organismos de países en vías de
desarrollo y que todavía no poseen un comité nacional de normalización. No
toman parte activa en el proceso de normalización pero están puntualmente
informados acerca de los trabajos que les interesen.
• Miembros suscritos, países con reducidas economías a los que se les
exige el pago de tasas menores que a los correspondientes.
ISO coopera estrechamente con la Comisión Electrotécnica Internacional
(International Electrotechnical Commission o IEC), su precendente histórico
ya que fue creada en 1906, y que es responsable de la normalización de equipos
eléctricos y electrónicos. Es un error común el pensar que ISO significa Inter-
national Standards Organization o algo similar, ISO no es un acrónimo sino
que proviene del griego iso, que significa igual (en inglés su nombre es Interna-
tional Organization for Standardization, mientras que en francés se denomina
Organisation Internationale de Normalisation; el uso del acrónimo conduciría
a diferentes nombres).
De este organismo surgen la familia de normas ISO 9000, que están in-
tegradas por un conjunto de modelos y documentos sobre gestión de calidad.
En 1987 se publicaron las normas internacionales actuales sobre aseguramiento
de la calidad. Por primera vez, cada una de ellas sirve como un modelo de cali-
dad dirigido a determinada área de la industria, la manufactura o los servicios.
En la actualidad cubren todas las funciones o posibilidades de desempeño, y
tienen el objetivo de llevar la calidad o la productividad de los productos o
servicios que se oferten. Aunque los antecedentes más remotos de la existencia
de la norma ISO 9000 datan de hace más de 50 años, es importante destacar
que la aceptación internacional de la normalización ha tenido vigencia, sobre
BREVE RESEÑA HISTÓRICA 17
todo, a partir de la década de 1980.
Actualmente la normalización es un requerimiento indispensable para ex-
portar a los países del primer mundo, principalmente a los ubicados en el área
de Europa; sin embargo otros países como Japón, a pesar de su indiferencia
anterior, tienen ahora entusiasmo en participar en la aplicación de estas nor-
mas, ya que será imposible introducirse al mercado global si no se demuestra
su cumplimiento específico para garantizar la calidad de productos y servicios
al mercado futuro de los consumidores. De todos modos son muchas las em-
presas que deciden no invertir en acreditarse y emplear esos recursos a una
implementación real de control de su calidad.
Como ya se comentó, al inicio del capítulo, la norma ISO 9000:2000 defina
la calidad como: “conjunto de características de un producto, proceso o servicio
que le confieren su aptitud para cumplir los requisitos de los usuarios o clientes,
o de otras partes interesadas”.
Entre estos requisitos tenemos:
Los establecidos expresamente por el cliente.
Los no establecidos por el cliente, pero necesarios para el uso específico
o previsto.
Los requisitos legales y reglamentarios relacionados con el producto o
servicio.
Cualquier otro requisito adicional determinado por la organización.
Mediante el cumplimiento de estos requisitos se satisfacen las necesidades
del cliente o usuario en cuanto a:
Seguridad
Fiabilidad
Servicio
Existe toda una normativa específica que desglosa las normas iso para cada
aplicación concreta, por ejemplo, en la actualidad está siendo muy requerido el
empleo de controles de calidad que engloben el estudio del ciclo de vida de los
productos, sobre todo por problemas relacionados con la degradación de ciertos
materiales como los plásticos o los subproductos de la industria nuclear. Es el
caso de la ISO-14000 recientemente actualizada en el año 2008 y que recoge
varias recomendaciones sobre control medioambiental.
18 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.
1.3.8. Aparece la fiabilidad
Al igual que ocurre con la calidad, la fiabilidad de un producto o de un
sistema siempre ha estado presente a lo largo de la Historia, pues cuando se
fabrica un objeto los fabricantes buscan no solo su calidad sino que esta sea
perdurable, es decir, se persigue aumentar la vida útil.
Parte de la metodología sobre estimación de la vida útil de los productos
fue desarrollada para materiales militares. Uno de los primeros ejemplos con-
statados de análisis de tiempos de vida fue el empleado para estimar el número
de repuestos necesarios para mantener equipos electrónicos y mecánicos fun-
cionando en forma intensiva por períodos largos de tiempo durante la guerra
de Corea. Los responsables de armamento verificaron que uno de los proble-
mas de fallos estaba relacionado con las condiciones ambientales extremas, en
el caso de las guerras de Vietnan y Corea, se llegó a estimar que el 70% del
material electrónico del ejército americano no funcionaba correctamente: estos
hechos llevaron a la industria militar a mimar la fiabilidad del armamento y a
establecer los principios de esta nueva técnica, que no tardaría en adaptar el
resto de la industria.
Es también destacable las aportaciones que han tenido al empleo y creación
de normas para el control de la fiabilidad organismos como el Instituto de Elect-
ricidad y Electrónica (IEEE). Es en el año 1959 cuando aparecen publicadas las
primeras normas para controlar la fiabilidad. Un ejemplo de estas normas es la
guía de referencia para tasas de fallos, elaborada por el Pentágono americano,
conocida como MILHDBK217F.
Por otra parte, la gran utilización de la aviación comercial y el inicio de
la exploración espacial en los años cincuenta con satélites, sondas y vehículos
tripulados, aumentó la necesidad de un mayor desarrollo e implementación de
la metodología de fiabilidad para componentes y sistemas. Hoy en día es una
de las técnicas emergentes, ya no sólo en el campo militar o de la aviación sino
también en toda la industria.
En algunos sectores de la industria, como el farmacéutico o el alimentario,
se usa un término más específico, estabilidad, para referirse a los casos en que la
fiabilidad depende de la conservación de una determinada composición química.
En las ciencias de la salud, en las que se tratan cuestiones bastante parecidas
a las de la fiabilidad, se usa la expresión análisis de la supervivencia, siendo en
este campo en el que se ha investigado con más ahínco en la implementación
de nuevos métodos estadísticos, como el caso de la aplicación de técnicas de
estimación no paramétrica.
Otra aplicación de estas técnicas de fiabilidad han ido de la mano de dar
apoyo a la sociedad consumista, proporcionando herramientas, no sólo para la
mejora de los productos sinó también para que estos tengan una determinada
vida limitada en el tiempo. Es lo que algunos han denominado obsolescencia
programada. En todo caso esta sería una aplicación poco recomendable y sigue
siendo la mejora de la fiabilidad de productos que precisan de una altísima cal-
BREVE RESEÑA HISTÓRICA 19
idad, como los empleado en la industria aeronaútica, la naval o la biosanitaria
los que mayores esfuerzos y éxitos proporcinan.
1.3.9. La Calidad en Europa
Como ya se mencionó el control de calidad entró en Europa a partir de
colaboraciones con profesionales americanos de la industria. Un ejemplo de
esta colaboración fue la mantenida por Egon Pearson, profesor de la Univer-
sity College de Londres, con el propio Walter Shewhart. Pearson realiza una
visita a Estados Unidos en 1931 y posteriormente invita a Shewhart a impar-
tir tres conferencias en Gran Bretaña sobre el papel del método estadístico
en la estandarización industrial. La propia Royal Statistical Society creará en
1932 una sección dedicada a la estadística industrial incorporando posterior-
mente la revista Applied Statistics a sus publicaciones. Como resultado de
esta colaboración y del patrocinio de la Royal se publicará la conocida norma
BS-600-1935 sobre aplicaciones de métodos estadísticos en la estandarización
industrial y control de calidad, que llevaría el nombre de Egon Pearson. Entre
las industrias que con mayor aínco impulsaron la aplicación de estas técnicas
estaría la General Electric Company.
Finalmente estas técnicas de control estadístico se irán expansionando a
otros países europeos, fundándose la Organización Europea para el Control de
Calidad, sociedad conocida como EFQM (European Foundation for Quality
Management), en donde se crea el conocido como comité técnico 69 para las
aplicaciones de los métodos estadísticos a las normas ISO, cuya principal misión
será la de emitir normas para los planes de muestreo y los diagramas de control.
Estas aplicaciones en la industria vendrán acrecentadas con las aportaciones
de estadísticos tan importantes como Ronald Fisher con su conocido método de
diseño de experimentos, que aunque en un principio surge ligado a problemas
agrícolas posteriormente será aceptado y explatado en todo tipo de activivades.
Es también destacable las aportaciones de William Gosset, quien publicará
su famosa distribución t (publicada bajo el pseudónimo de Student) y que
emplearía para la mejora de la calidad, como parte de su trabajo como maestro
cervecero, en la conocida fábrica de cervezas irlandesa Guinnes.
Desde mediados de los años ochenta el panorama económico internacional,
caracterizado por la globalización de los mercados y la aparición de nuevas tec-
nologías, ha creado un clima de competitividad como jamás se había conocido
antes. Surge así una nueva tendencia conocida como Excelencia en la Gestión.
Al igual que ocurrió con la incorporación de los planes de muestreo y los
diagramas de control, en Europa, la Excelencia en la Gestión llega, aproxi-
madamente, una década más tarde que en Estados Unidos. Hasta entonces, las
empresas europeas adoptan modelos de Aseguramiento de la Calidad como los
basados en las normas internacionales ISO 9000 (derivadas de la norma militar
británica BS 5750).
20 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.
1.3.10. La calidad en España
El caso concreto del control de calidad en España se enmarca dentro del
caso Europeo aunque con una serie de características propias. A nivel de ma-
teria el control estadístico, dentro de los planes de estudio, fue impulsado por
departamentos de Estadística con docencia en titulaciones que habitualmente
tienen una mayor relación con la industria, como es el caso de las ingenierías, la
química o la economía. Son destacables las primeras iniciativas de las escuelas
politécnicas y de otras universidades, que cuentan con importantes departa-
mentos de Estadística e Investigación Operativa con secciones aplicadas a la
industria, que han y siguen dando apoyo, mediante no sólo la docencia reglada,
sino también con cursos dirigidos a empresas e instituciones sobre diferentes
técnicas estadísticas.
A nivel gubernamental, ha sido la creación de la Agencia de Evaluación
de las Políticas Públicas y la Calidad de los Servicios el elemento clave en el
proceso de institucionalización de la evaluación en España. Si bien existían pre-
viamente instituciones que realizaban evaluaciones, su dimensión era más bien
sectorial o relacionada con las políticas de gasto. La Agencia aporta una mayor
articulación al modelo global, dentro de un marco común del que enriquecerse
interadministrativamente (http://www.aeval.es/).
Asimismo, el proceso de institucionalización de la evaluación y la gestión
de la calidad en España se ha impulsado mediante el marco normativo que
desarrolla el Real Decreto 951/2005, de 29 de julio, sobre Mejora de la Cal-
idad en la Administración del Estado y con los trabajos sobre el análisis del
impacto normativo encomendados por Acuerdo del Consejo de Ministros, de
25 de febrero de 2005, por el que se adoptan mandatos para poner en marcha
medidas de impulso a la productividad.
Entre las experiencias evaluadoras más destacadas en la Administración
General del Estado (AGE) se encuentran las centradas en políticas sociales,
sanitarias, educativas y tecnológicas, preocupadas por la eficacia de los progra-
mas y su impacto social y/o calidad de los servicios prestados, todas ellas de
ámbito sectorial y especializado. Es el caso de los trabajos realizados en mate-
ria educativa por ANECA - Agencia Nacional de Evaluación de la Calidad y la
Acreditación - y el Instituto de Evaluación (antiguo INECSE), por la Agencia
de Calidad del Sistema Nacional de Salud en materia sanitaria, por el INEM
y el Servicio Público de Empleo Estatal en materias laborales y de empleo,
por la ANEP — Agencia Nacional de Evaluación y Prospectiva - en el sistema
público de ciencia y tecnología y de proyectos de I+D+i, o por la Dirección
General de Planificación y Evaluación de Políticas de Desarrollo en materia de
cooperación internacional al desarrollo.
En 1999, con el Real Decreto 1259/1999 se regulaban las Cartas de Servicios
y los Premios a la Calidad en la Administración General del Estado (actual-
mente derogado), se establecieron los contenidos y las estrategias a aplicar por
las organizaciones de la Administración estatal para desarrollar el principio de
BREVE RESEÑA HISTÓRICA 21
servicio a los ciudadanos, así como para asegurar la mejora continua de sus
procedimientos, servicios y prestaciones.
El Modelo de Evaluación, Aprendizaje y Mejora (EVAM) , representa una
metodología sencilla y asequible que permite conocer el nivel de calidad en la
gestión y resultados de las organizaciones, realizar, a modo de una autoevalu-
ación asistida, un primer análisis de la madurez organizacional y del nivel de
prestación de los servicios y orientar el camino a seguir, poniendo a disposición
de las organizaciones, herramientas para la mejora de su rendimiento.
La Agencia de Evaluación emite una certificación del nivel de excelencia
a aquellas organizaciones que se hayan autoevaluado conforme a modelos de
gestión de calidad reconocidos y sometido sus resultados a la correspondiente
validación, de acuerdo con lo previsto en el Programa de Reconocimiento. El
proceso de certificación culmina con la concesión de un sello, en función del
modelo utilizado para la autoevaluación y del nivel de excelencia comprobado
por la Agencia.
Es también de mención la labor de la Asociación Española para la Calidad
(AEC). Este organismo es una entidad privada sin ánimo de lucro, fundada en
1961, cuya finalidad es fomentar y apoyar la competitividad de las empresas
y organizaciones españolas, promoviendo la cultura de calidad y el desarrollo
sostenible, reflejados en su Misión y Visión. (véase http://www.aec.es/)
Con el fin de ayudar a las empresas españolas, y fundamentalmente a las
PYMEs, a mejorar su posición en el mercado global, la AEC fomenta la divul-
gación de las mejores prácticas a través de sus 21 Comités y de la organización
de una media de 21 jornadas y congresos al año.
Además, ofrece información actualizada a través del CNIC (Centro Nacional
de Información de la Calidad), de la revista Çalidad de las publicaciones que
se editan. Asimismo, facilita material divulgativo y de apoyo en la gestión y
mejora de la calidad (carteles de motivación).
Aparte, la AEC, a través de su Centro de Registro y Certificación de Per-
sonas (CERPER) gestiona y emite los certificados de personas. El CERPER
ofrece doble garantía ya que es la única entidad reconocida en España por la Eu-
ropean Organization for Quality (EOQ) como su representante para certificar
personas siguiendo sus esquemas de certificación y la única entidad certificado-
ra de personas acreditada por ENAC, para certificar a profesionales en Calidad
y Medio Ambiente.
Por otra parte, la AECmantiene una colaboración habitual con la American
Society for Quality (ASQ) y con la Fundación Iberoamericana para la Gestión
de la Calidad (FUNDIBEQ).
Además de la labor de asociaciones como la AEC cabe destacar la gran
labor desarrollada desde los departamentos de Estadística de las universidades
españolas y la creación de institutos dedicados a las aplicaciones de los méto-
dos matemáticos a la industria, que apoyados por proyectos como el i-math
y su reciente ampliación en la red math-in hacen una importantísima labor
de transferencia de conocimiento de la Universidad a la Industria. i-MATH
es un proyecto CONSOLIDER de investigación singular para el periodo 2006-
22 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.
2011 que propone un Programa de Actividad Investigadora integral para la
matemática española con el objetivo básico de promover y ejecutar actuaciones
estratégicas de ámbito estatal que incrementen cualitativa y cuantitativamente
el peso de las matemáticas en el panorama internacional y en el sistema es-
pañol de ciencia, tecnología, empresa y sociedad. i-MATH es una iniciativa
promovida y subvencionada por el Ministerio de Educación y Ciencia en el que
participan más de 300 grupos de investigación.
1.3.11. Los grandes artífices de la calidad
Sin duda el papel inicial de Walter Shewart en la popularización del control
estadístico ha sido decisivo, pero deben de mencionarse también otra serie de
autores, que algunos han llamado los "gurús"de la calidad para aportar nombre
propios a este breve recorrido histórico.
Walter Shewart (1891-1967), estudió en la Universidad de Illinois y se doc-
toró en física de la Universidad californiana de Berkeley. Presentó sus primeras
cartas de control en el año 1924 en la empresa Bell Telephone Laboratories.
El jefe de Shewhart, George Edwards, recuerda: .El Dr. Shewhart preparó un
pequeño memorandum de sólo una página de longitud. Casi un tercio de la
página lo ocupaba un sencillo diagrama que todos reconocemos hoy día como
un diagrama de control esquemático". Desde finales de 1930 en adelante, los
intereses de Shewhart se expandieron desde la calidad industrial a la ciencia
y la inferencia estadística. El título de su segundo libro "Método Estadístico
desde el punto de vista del Control de Calidad (1939)"hace la audaz pregun-
ta: ¿Qué puede aprender la practica estadística, y la ciencia en general, de la
experiencia del control industrial de calidad?
En 1938 su obra llama la atención del también físico Edwards Deming,
que estaba intrigado por la medición del error en ciencia y había publicado
un artículo seminal en Reviews of Modern Physics en 1934. Al leer las ideas
de Shewhart, escribió a la revista para cambiar totalmente su enfoque en los
términos de lo que Shewhart promocionaba.
El encuentro comenzó una larga colaboración entre Shewhart y Deming que
incluyó trabajos sobre la productividad durante la Segunda Guerra Mundial.
Deming promovió las ideas de Shewhart en Japón desde 1950 en adelante.
Además Deming desarrolló algunas de las propuestas metodológicas de She-
whart acerca de la inferencia científica y llamó a su síntesis el ciclo de Shewhart
(Shewhart cycle). Este ciclo es una breve guía de actuación, que es también
conocido por sus siglas en inglés, como ciclo PDCA (Plan-Do-Check-Act). Es
fácil encontrar una anología de este ciclo con el ciclo DMAIC que se analizará
con detalle en una sección posterior. Shewhart será también el que diferencie
en los procesos las causas asignables y no asignables de variación.
Además de su gran labor en la industria, debe destacarse su labor divulgado-
ra de Shewhart. Visitó la India en 1947 bajo el patrocinio del gran matemático
BREVE RESEÑA HISTÓRICA 23
Mahalanobis del Indian Statistical Institute. Recorrió el país, dio conferencias
y estimuló el interés en el control estadístico de la calidad entre los industrailes
indios. Fue también el editor fundador de la Wiley Series en Mathematical Sta-
tistics y miembro honorario de la Royal Statistical Society, miembro fundador,
presidente del Institute of Mathematical Statistics, miembro y presidente de la
American Statistical Association y del International Statistical Institute.
William Edwards Deming (1900-1993) estudió ingeniería eléctrica en Uni-
versidad de Wyoming en 1925 obtuvo la maestría en Física y Matemáticas en
la Universidad de Colorado y en 1928 obtuvo el Doctorado por la Universidad
de Yale en Física donde fue empleado como profesor. Posteriormente trabajó
para el Departamento de Agricultura en Washington D.C. y como consejero es-
tadístico para la Oficina de Censo de los Estados Unidos, durante este periodo
fue cuando Deming entabló la fructifera relación con Shewhart.
En 1950 la Unión Japonesa de Científicos e Ingenieros (JUSE) invitó a
Deming a Tokio a impartir charlas sobre control estadístico de procesos. Sus
conferencias fueron copiadas, editadas e impresas en japonés, se vendieron miles
de copias. Los japoneses pretendieron pagarle los derechos de autor, sin em-
bargo Deming rechazó la oferta proponiéndoles emplear el dinero en crear un
premio para las empresas que demostraran un comportamiento ejemplar en la
mejora de calidad.
Las ideas de Deming se recogen en los Catorce Puntos y Siete Enfermedades
de la Gerencia de Deming. Deming afirma que todo proceso es variable y cuanto
menor sea la variabilidad del mismo mayor será la calidad del producto resul-
tante. En cada proceso pueden generarse dos tipos de variaciones o desviaciones
con relación al objetivo marcado inicialmente: variaciones comunes y varia-
ciones especiales. Solo efectuando esta distinción es posible alcanzar la calidad.
Las variaciones comunes están permanentemente presentes en cualquier pro-
ceso como consecuencia de su diseño y de sus condiciones de funcionamiento,
generando un patrón homogéneo de variabilidad que puede predecirse y, por
tanto, controlarse. Las variaciones asignables o especiales tienen, por su parte,
un carácter esporádico y puntual provocando anomalías y defectos en la fab-
ricación perfectamente definidos, en cuanto se conoce la causa que origina ese
tipo de defecto y por tanto se puede eliminar el mismo corrigiendo la causa
que lo genera. El objetivo principal del control estadístico de procesos es de-
tectar las causas asignables de variabilidad de manera que la única fuente de
variabilidad del proceso sea debido a causas comunes o no asignables, es decir,
puramente aleatorias.
Deming ofreció catorce principios que presentó por primera vez en su libro
.Out of the Crisis"("Salir de la Crisis"). Estos 14 puntos de Deming son los
siguientes:
Crear constancia en el mejoramiento de productos y servicios, con el obje-
tivo de ser competitivo y mantenerse en el negocio, además proporcionar
puestos de trabajo.
24 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.
Adoptar una nueva filosofía de cooperación en la cual todos se benefician,
y ponerla en práctica enseñándola a los empleados, clientes y proveedores.
Desistir de la dependencia en la inspección en masa para lograr calidad.
En lugar de esto, mejorar el proceso e incluir calidad en el producto desde
el comienzo.
Terminar con la práctica de comprar a los más bajos precios. En lugar
de esto, minimizar el costo total en el largo plazo. Buscar tener un solo
proveedor para cada ítem, basándose en una relación de largo plazo de
lealtad y confianza.
Mejorar constantemente y por siempre los sistemas de producción, servi-
cio y planeamiento de cualquier actividad. Esto va a mejorar la calidad
y la productividad, bajando los costos constantemente.
Establecer entrenamiento dentro del trabajo (capacitación).
Establecer líderes, reconociendo sus diferentes habilidades, capacidades y
aspiraciones. El objetivo de la supervisión debería ser ayudar a la gente,
máquinas y dispositivos a realizar su trabajo.
Eliminar el miedo y construir confianza, de esta manera todos podrán
trabajar más eficientemente.
Borrar las barreras entre los departamentos. Abolir la competición y con-
struir un sistema de cooperación basado en el mutuo beneficio que abar-
que toda la organización.
Eliminar eslóganes, exhortaciones y metas pidiendo cero defectos o nuevos
niveles de productividad. Estas exhortaciones solo crean relaciones de
rivalidad, la principal causa de la baja calidad y la baja productividad
reside en el sistema y este va más allá del poder de la fuerza de trabajo.
Eliminar cuotas numéricas y la gestión por objetivos.
Remover barreras para apreciar la mano de obra y los elementos que
privan a la gente de la alegría en su trabajo. Esto incluye eliminar las
evaluaciones anuales o el sistema de méritos que da rangos a la gente y
crean competición y conflictos.
Instituir un programa vigoroso de educación y auto mejora.
Poner a todos en la compañía a trabajar para llevar a cabo la transfor-
mación. La transformación es trabajo de todos.
Gracias a su aportación a la mejora de la calidad de la industria japonesa
el premio de calidad japonés lleva su nombre "Premio Deming se considera
como el número uno entre los premios de calidad a nivel mundial. Además
BREVE RESEÑA HISTÓRICA 25
los japoneses llaman a Deming .El padre de la tercera revolución industrial".
Posteriormente, los estadounidenses, ante el empuje de la industria japonesa,
recuperan estos conceptos que les habían pasado desapercibidos en la figura
del propio Deming y su más aventajado condiscípulo, Malcolm Baldrige.
Joseph Moses Juran (1904 - 2008) estudió ingeniería eléctrica en la Univer-
sidad de Minnesota y trabajó en la Western Electric en Hawthorne Works. En
1925, la Bell Labs propone que el personal capacitado de Hawthorne Works
trabaje en su recién desarrollado programa de control estadístico. Juran fue
seleccionado para unirse a la inspección del Departamento de Estadística este
hecho y su relación con las nuevas técnicas impulsa el rápido ascenso de Ju-
ran en la organización siendo ascendido a jefe de departamento en 1928, y al
año siguiente se convirtió en un jefe de división. Publicó su primer artículo
relacionado en calidad de Ingeniería electrolitica de fagor en 1935. En 1937, se
trasladó a Western Electric /AT&T en la sede de la Ciudad de Nueva York.
En 1941 Juran descubrió la obra de Vilfredo Pareto y amplió la aplicación
del conocido como "principio de Pareto.a cuestiones de calidad (por ejemplo, el
90% de un problemas es causado por el 10% de ciertas causas). Esto también
se conoce como "los pocos vitales y muchos triviales". Aunque Juran en los
últimos años ha preferido hablar de "los pocos vitales y los muchos útiles"para
indicar que el 80% restante de las causas no deben ser totalmente ignoradas.
Juran harán hincapié en lo que llamó "la dimensión humana de la gestión
de la calidad". Impulsó la educación y la formación de directivos creando un
instituo que lleva su nombre y sigue a ser una referencia en todo el mundo. Para
Juran, las relaciones humanas son los problemas para aislar. La resistencia al
cambio, en sus términos, la resistencia cultural la causa fundamental de las
cuestiones de calidad.
Es conocido también por lo que llegó a denominarse la "trilogía de Ju-
ran,ün enfoque de la gestión que se compone de tres procesos para la gestión:
la planificación, el control de la calidad y la mejora de la calidad
Además Juran propone 10 medidas para la mejora de la calidad:
Crear conciencia de la necesidad y oportunidad de mejorar
Establecer metas para la mejora
Crear planes para alcanzar los objetivos
Proporcionar capacitación
Llevar a cabo proyectos para resolver problemas
Informe sobre el progreso
Dar un reconocimiento para el éxito
Comunicar los resultados
Llevar la cuenta
26 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.
Mantener el impulso
Al igual que Deming, Juran también visitó Japón en 1966 y se interesó por
el concepto japonés de Çírculos de Calidad"que promocionó con entusiasmo a
su regreso a América. Durante su larga vida, (estuvo prácticamente en activo
hasta los 103 años de existencia) sería un gran impulsor de implementar las
ventajas del control de calidad y establecer contactos entre empresas japones
y americanas.
Genichi Taguchi ( ), nació en 1924 en Tokamachi siendo hoy día uno de
los líderes mundiales en la implementación del control de calidad. Estudió ini-
cialmente ingeniería textil con la intención de entrar en el negocio de la familia
kimono. Sin embargo, con la escalada de la Segunda Guerra Mundial, en 1942,
fue reclutado en el Departamento de Astronomía del Instituto de Navegación
de la Armada Imperial Japonesa. Después de la guerra, en 1948, ingresó en el
Ministerio de Salud Pública y Bienestar Social, donde bajo la influencia del
estadista Matosaburo Masuyama, que incentivó su interés en el diseño de ex-
perimentos. También trabajó en el Instituto de Estadística Matemática durante
este tiempo, y apoyó el trabajo experimental en la producción de penicilina en
la farmacéutica Morinaga.
En 1950, se incorporó al Laboratorio de Comunicaciones Eléctricas (ECL),
de la Nippon Telegraph and Telephone Corporation justo cuando el control de
calidad estadístico estaba empezando a ser popular en Japón, bajo la influen-
cia de W. Edwards Deming y la Unión Japonesa de Científicos e Ingenieros.
ECL se encuentra en una rivalidad con Bell Labs para desarrollar la barra
transversal y los sistemas de conmutación telefónica. Taguchi pasó doce años
en la elaboración de métodos para mejorar la calidad y fiabilidad. A partir
de esta experiencia se le empieza a consultar ampliamente en otras industrias
japonesas, como la conocida Toyota.
Taguchi fue también profesor visitante en el Instituto de Estadística de
la India, donde trabajó con Ronald. Fisher y Walter Shewhart. Tras concluir
su doctorado en la Universidad de Kyushu en 1962, dejó el ECL, manteniendo
una relación de consultoría. En el mismo año visitó la Universidad de Princeton
bajo el patrocinio de John Tukey, quien le proporcionó un periodo en los Lab-
oratorios Bell. En 1964 se convirtió en profesor de ingeniería en la Universidad
Aoyama Gakuin en Tokio. En 1966 inicia una colaboración con Yuin Wu, quien
más tarde emigra a los EE.UU., y, en 1980, invita a Taguchi a una conferencia.
Durante su visita, el propio Taguchi financia su retorno a los Laboratorios Bell,
donde su enseñanza inicial había tenido poco impacto duradero. Esta segunda
visita se inició una colaboración con Madhav Phadke y un creciente entusiasmo
por su metodología en los Laboratorios Belll y en otros lugares, incluyendo la
Ford Motor Company, Boeing, Xerox y ITT.
Desde 1982, Genichi Taguchi ha sido asesor de la Instituto japonés de Nor-
mas, y el director ejecutivo del Instituto de Proveedores de América, una or-
ganización internacional de consultoría.
Entre las aportaciones de Taguchi al control de calidad está sin duda la
BREVE RESEÑA HISTÓRICA 27
función de pérdida, utilizada para medir la pérdida financiera de la sociedad
resultante de la mala calidad, la filosofía del control de calidad fuera de línea, el
diseño de productos y procesos basado en parámetros de diseño que determinan
el buen funcionamiento del equipo, y las innovaciones en diseño de experimen-
tos, en particular el uso de una serie de factores externos que son incontrolables
en la vida real, pero son sistemáticamente variadas en el experimento. Taguchi
afirma que es más barato rediseñar los procesos de fabricación y productos que
en las acciones de mejora de la calidad luego de un control.
1.3.12. Hitos históricos
A modo de resumen, se refleján los principales hitos históricos que han
tenido lugar a lo largo del pasado siglo XX, siglo que como se ha constatado,
fue esencial en la aparición de metodologías para el control de la calidad y la
fiabilidad:
1901: Se establecen los primeros laboratorios de estandarización en Gran
Bretaña.
1908: Gosset publica su distribución t de Student fruto de sus trabajos
en control de calidad de la cerveza en la conocida fábrica dublinesa de
Guiness.
1920: Se crea el departamento de calidad en la AT&Bell en USA y General
Electric en Inglaterra emplea control de calidad para sus lámparas.
1923: Fisher publica sus trabajos sobre diseño de experimentos en agri-
cultura
1924: Shewhart utiliza sus gráficos de control en los laboratorios de la
Bell.
1928: Dodge y Romig emplean controles de recepción en Bell Labs.
1930. Henry Ford establece la primera cadena de montaje.
1931: Shewart publica su trabajo sobre gráficos de control .Economic Con-
trol of Quality of Manufactured Product"
1932: Shewart imparte sus teorías en Inglaterra (University of Lonon).
1938: Shewart, invitado por Demig, imparte sus teorías en el U.S. De-
partment of Agriculture Graduate Schol
1940-43: Se publican distintas guias sobre control de calidad y de recep-
ción (Pentágono americano y Bell Labs)
28 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.
1944-46: Se crean institutos sobre calidad (American Society for Quality
Control, ASQC) y aparece la revita Industrial Quality Control.
1946-49: Deming imparte sus teorías en Japón. Se crea la sociedad japone-
sa JUSE (Japanese Union of Scientistis and Engineers).
1948: Taguchi comienza sus aplicaciones del diseño de experimentos a la
industria.
1949: Isikawa introduce los diagramas de causa-efecto.
1950: Aparece el texto sobre control de calidad de Grant y Duncan.
1951: Feigenbaum publica el libro Total Quality Control. La JUSE es-
tablece el premio de calidad Deiming.
1951: Box y Wilson presentan la metodología de superficies de respuesta
para la optimización de diseños de experimentos.
1954: Juran imparte sus teorías en Japón.
1954: Page utiliza sus gráficos CUSUM.
1957: Juran y Gryna publican la primera edición del manual Quality
Control Handbook.
1959: Aparece la revista Technometrics con Stuart Hunter como editor.
1959: Roberts introduce los gráficos EWMA.
1960: Box y Hunter publican sus trabajos sobre diseños factoriales frac-
cionarios.
1960: Ishikawa introduce sus teorías sobre los círculos de calidad.
1969: Se crea la revista Journal of Quality Technology cuyo primer editor
es Lloyd Nelson
1970-80: Aparecen varios textos sobre control de la calidad. Se aplica el
diseño de experimentos en la industria.
1984: Se crea una filial de la ASA (Americam Statistical Association)
sobre calidad (Ad Hoc Commitee on Quality and Productivity)
1987: Premio Nacional de Calidad de USA o premio Malcolm Baldrige.
1990: Aparece la ISO 9000.
1991: Premio Europeo a la Calidad o premio EFQM (European Founda-
tion for Quality Manegement).
BREVE RESEÑA HISTÓRICA 29
1997: Motorola aplica los modelos Six Sigma.
1998: Se publica el libro de Meeker y Escobar sobre fiabilidad.
1999: Premio del Modelo Iberoamericano de Excelencia en la Gestión
o premio FUNDIBQ (Fundación Iberoamericana para la gestión de la
Calidad).
2000: Se publican las normas ISO 9000:2000
1.4. Nuevas Metodologías
1.4.1. Cuadro de mando y modelos de excelencia
En los últimos años, para ayudar a las empresas y organizaciones en su
camino a la Excelencia en la Gestión de la Calidad han surgido una serie de
herramientas como son el Modelo EFQM de Excelencia, el Cuadro de Mando
o Seis Sigma.
El modelo conocido como Cuadro de Mando Integral (Balanced Scorecard)
utiliza como elemento clave los indicadores estratégicos para el control de los
procesos.
En general, el “Modelo de Excelencia” es un conjunto de criterios agrupa-
dos por áreas que sirven de referencia para implementar un plan de Gestión
de Calidad que pretende ajustarse a las bases de los grandes premios a la cali-
dad. Así, los modelos más populares son los basados en el Premio Nacional de
Calidad de Estados Unidos, conocido como “Malcolm Baldrige”, cuyo nombre
hace referencia al Secretario de Comercio impulsor del mismo. El premio Dem-
ing es el Premio Nacional a la Calidad en Japón. A nivel europeo, se crea en
1991 el Premio Europeo a la Calidad. Finalmente, el Modelo Iberoamericano
de Excelencia a la Gestión es el último en aparecer en 1999.. Algunas de las
más empleadas son as como son el Modelo EFQM de Excelencia, el Cuadro de
Mando o Seis Sigma.
El llamado “Modelo de Excelencia” es un conjunto de criterios agrupados
por áreas que sirven de referencia para implementar un plan de Gestión de
Calidad que pretende ajustarse a las bases de los grandes premios a la calidad.
Así, los modelos más populares son los basados en el Premio Nacional de Cali-
dad de Estados Unidos, conocido como “Malcolm Baldrige”, cuyo nombre hace
referencia al Secretario de Comercio impulsor del mismo. El premio Deming es
el Premio Nacional a la Calidad en Japón. A nivel europeo, se crea en 1991 el
Premio Europeo a la Calidad. Finalmente, el Modelo Iberoamericano de Exce-
lencia a la Gestión es el último en aparecer en 1999.El Cuadro de Mando es una
herramienta para la mejora de la Calidad basada en indicadores estratégicos.
30 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.
Partiendo de una misión (hecha por la organización) y una visión (lo que se
quiere convertir) se proponen estrategias que se seguirán mediante indicadores.
1.4.2. Metodología Seis sigma
Seis sigma es sin duda, la herramienta de mayor implantación para la
Gestión de la Calidad hoy en día. El término seis sigma que hace referen-
cia a la costumbre de representar la desviación típica con esta letra griega
sigma (), prima la importancia del control de la variabilidad, siendo pues una
metodología que tiene una fuerte base estadística.
Seis Sigma nace en los años 80 en la empresa Motorola, de la mano del Dr.
Mikel Harry, como un intento para conseguir mejoras sustanciales en la calidad
del producto. En sus primeros años Seis Sigma se circunscribía a la mejora de
procesos, pero entendida como mejora radical y profunda: una verdadera “rup-
tura” (según la propia terminología Seis Sigma) en los métodos de producción
tradicionales. Entre los objetivos de Seis Sigma está alcanzar unos niveles de
calidad en los procesos y productos que no superen los 3.4 defectos por millón.
En la década de 1990, Jack Welch, presidente de General Electric, decició
utilizar Seis Sigma consiguiendo resultados económicos espectaculares. Desde
entonces, Seis Sigma se ha convertido en una de las herramientas de mejora
más utilizadas, habiendo sido adoptadas, además de Motorola y General Elec-
tric, por compañías como Pollaroid, Toshiba, Honeywell, City Bank, American
Express, Movistar o Iberia, entre muchas otras. Aunque el concepto Seis (Six)
Sigma fue acuñado por Motorola los pasos de los que consta su aplicación fueron
llevados a cabo por primera vez en USA ya en 1985 en la empresa Florida Power
and Light cuando decidió solicitar el Premio Deming (Voehl, 2000).
Como se comentó una de las características de esta metodología está en
buscar los çero defectos". En términos prácticos puede decirse que un proceso
de producción tiene un nivel de calidad 6 sigma cuando a largo plazo presenta
poco más de 3 DPMO (defectos por millón de oportunidades). Este “nivel
sigma” de un proceso mide la distancia entre la media y los límites superior e
inferior de la especificación correspondiente.
Ha sido habitual considerar suficiente que un proceso tuviese una desviación
de ±3, lo que viene a significar que dicho proceso era capaz de producir sólo2.7 defectos por cada mil oportunidades (equivalente a 2700 DPMO), lo que
equivale a trabajar con un nivel de confianza del 9973%. Hoy en día este nivel
de calidad es inaceptable para muchos procesos. Por ejemplo en los procesos
que involucren varias componentes, si por se supone que la probabilidad de
fallo de cada componente es independiente, en el caso de contarse con 100 de
estas componentes, cada una con un nível de confianza del 99.73%, el niv-
el de confianza final del sistema sería inferior al 77% (0997310 = 0763) lo
que supondría que un 23% de los productos fuesen defectuosos. Teniendo en
cuenta muchos productos, como los automóviles, los barcos, aviones, etc. están
NUEVAS METODOLOGíAS 31
compuestos por más de un millón de componentes estos niveles de calidad son
claramente inadmisibles.
Aunque es difícil encontrar situaciones en las que se obtengan estos niveles
tan altos de calidad, puede pensarse en el caso de la aviación lo que supone un
nivel de calidad seis sigma, este nivel se consigue cuando se analiza el porcentaje
de muertes en accidentes de aviación pero está lejos de conseguirse en la pérdida
de equipajes.
Más recientemente, y como consecuencia natural de la aplicación de la
metodología, el concepto Seis Sigma se ha extendido hasta convertirse en una
verdadera filosofía de gestión global de la empresa. Una de sus características es
que promueve la utilización de herramientas y métodos estadísticos de manera
sistemática y organizada, que permite a las empresas alcanzar considerables
ahorros económicos a la vez que mejorar la satisfacción de sus clientes, todo
ello en un período de tiempo muy corto.
Los cambios se consiguen traduciendo las necesidades de los clientes al
lenguaje de las operaciones y definiendo los procesos y las tareas críticas que
hay que realizar de manera excelente. Se fijan objetivos que además de buscar
la reducción de defectos relacionan esta mejora en ganancias a corto plazo para
la empresa o institución que los aplique.
Para su puesta en práctica, aunque requiere de la implicación de todo el
personal de la empresa, suelen formarse equipos técnicos que se gestionan sigu-
iendo cierta similitud con los grados de las artes marciales. Así es frecuente
que un equipo Seis Sigma esté liderado por un cinturón negro (black belt) con
varíos técnicos conocedores del proceso que harían el papel de cinturones verde
(green belts). En el artículo de Hoerl (2001) pueden verse las fases y exigencias
de formación de estos equipos Seis Sigma. Los elementos clave que soportan la
filosofía Seis Sigma son los siguientes:
(a) Conocimiento de los requerimientos del cliente.
(b) Dirección basada en datos y hechos.
(c) Mejora de procesos.
(d) Implicación de la dirección.
Entre sus características se encuentra el uso de una serie de etapas, el
denominado ciclo DMAIC, para conseguir la mejora de los procesos.
1.4.3. El ciclo DMAIC
La aplicación de la metodología Seis Sigma a un proceso consta de cin-
co etapas: Definición, Medida, Análisis, Mejora y Control; las siglas DMAIC
provienen de las correspondientes palabras inglesas (Breyfogle, 1999). Breve-
mente, el ciclo DMAIC podría decirse que se basa en Definir los problemas y
situaciones a mejorar, Medir para obtener la información, Analizar la informa-
ción recogida, Incorporar mejoras en los procesos y Controlar los procesos o
32 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.
Figura 1-4 Capacidad según seis sigma.
productos existentes. Estas claves también se pueden evaluar en función de los
clientes y las prioridades:
(1) (D)efine. ¿Quiénes son los clientes y cuáles son sus prioridades?
(2) (M)easure. ¿Cómo es el proceso de medida y cómo se puede medir?
(3) (A)nalyse. ¿Cuál/es es/son la/las causa/s más importante/s de defec-
tos?
(4) (I)mprove. ¿Cómo eliminar las causas que provocan los defectos?
(5) (C)ontrol. ¿Cómo se pueden mantener las mejoras?
La Definición de un proyecto de mejora consiste en seleccionar aquel proceso
cuya mejora tendrá el mayor impacto positivo en las características del pro-
ducto que resulten críticas para la calidad, las determinadas CTQ (“Critical-
to-Quality”), según las ha definido el cliente. Pieza clave en esta etapa es la
herramienta denominada QFD o despliegue de la función de calidad.
En la etapa de Análisis es donde se aplican las herramientas estadísticas del
proceso: utilización de diagramas de proceso, herramientas de Ishikawa, etc.
1.4.4. Diseño para Seis Sigma (DFSS)
Aunque el ciclo DMAIC constituye un salto cualitativo hacia la mejora
continua, se puede ir un paso más allá. Cuando se trata de diseñar un nuevo
proceso o producto, o cuando el actual es francamente mejorable es mejor
partir de cero. Surge así el diseño para Seis Sigma (DFSS) que se basa en
partir de lo verdaderamente esencial, los requisitos del cliente, y llevar esos
requisitos hacia atrás, hasta la completa definición del producto, del proceso y
de sus respectivas especificaciones. Esto implica realizar el diseño conceptual
del producto y los estudios estadísticos de la información relevante que permita
determinar la capacidad de los procesos. La metodología DFSS es una forma
NUEVAS METODOLOGíAS 33
Figura 1-5 DMAIC para seis sigma.
eficiente para asegurar la calidad en el producto final a través del diseño del
producto y del proceso.
Además el enfoque seis sigma se propone la aplicación de técnicas de Diseño
de Experimentos con el fin de identificar los factores clave y posteriormente
lograr mejoras sostenibles de rendimiento de la/s respuesta/s estudiada/s.
Hoy en día la filosofía Seis Sigma está siendo de gran aplicación en todo tipo
de organizaciones y se ha visto ampliado mediante las técnicas de optimización
basadas en eliminar lo innecesario, lo que se ha dado en llamar "Lean"(vocablo
que podría traducirse como .eliminar grasa"), surge así la metodología Lean Six
Sigma, que está siendo de gran apliación auspiciada por la gran crisis económica
mundial.
1.4.5. Lean y Just-In-Time
Lean Production (Womack et al., 1990; Womack y Jones, 1996) tiene su ori-
gen en la filosofía de conseguir mejoras en aspectos económicos haciendo espe-
cial hincapié en la reducción de desperdicios (grasa superflua=lean). Aunque su
primera aplicación fue realizada por Taiichi Ohno para la empresa automovilís-
tica Toyota a principios de 1950 (Dahlgaard-Park, 2000) será a principios de
este nuevo siglo XXI cuando la crisis económica vuelva a utilizar esta técnica
basada en la eliminación de todo aquello que encarezca el producto final sin
aportar beneficios claros. La idea que inspiró al japonés Ohno, a raíz de una
34 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.
estancia en la empresa Ford de Detroit es que había demasiados residuos en
todas partes. Al regresar a Japón, creó pequeños equipos de trabajadores (cír-
culos de calidad) para animarles a trabajar juntos buscando el objetivo de la
reducción de desperdicios.
El sector del automovil fue y sigue siendo uno de los que mayor presión
existe para conseguir precios más competitivos y mejoras apreciables dada la
alta tecnología que emplea y la gran competencia existente entre las diferentes
marcas. Así el final de la década de 1980 se creo la asociación IMVP (Inter-
national Motor Vehicle Program) que utilizará la filosofía "lean production”
como filosofía de trabajo para un programa de mejora que realiza con el MIT
(Massachusetts Institute of Technology). En ese proyecto se recogieron datos
de los planes de montaje de automóviles en todo el mundo con el fin de com-
prender las diferencias en la calidad y la productividad. Los resultados de esta
evaluación comparativa fueron publicados en el conocido libro “La máquina
que Cambió el mundo” (Womack et al., 1990).
Hoy en día se ha puesto en valor este término ligado a la metodología
Seis Sigma, surgiendo asía la nueva técnica denominada "Lean Seis Sigma"que
persigue desde la perspectiva de la reducción de costes conseguir los objetivos
propios de reducción de defectos de Seis Sigma, utilizando ambas metologías
de forma conjunta para un mismo fin, la mejora de la calidad y el ahorro al
cliente.
Otro técnica para reducir el desperdicio (lean), también propuesta por el
japonés Ohno, es la llamada Just-In-Time (JIT) o modelo Kanban. Ohno se
inspiró en su visita a USA observando las cadenas de montaje de la empresa
Ford, que se perdía mucho tiempo con el problema de almacenamiento de
stoks, promoviendo la idea de almacenar sólo lo imprescindible de forma que
los desperdicios se podían reducir al no ser necesario un gran espacio para
mantener las piezas en stock.
Un ejemplo de aplicación de estas técnicas puede verse en la mayoría de las
empresas del automovil como Citroën. Pero debe mencionarse la apuesta que
en su momento tuvo Toyota cuando decide aplicar esta metodología Just-In-
Time que asociada a su propuesta de Control de la calidad total le permitieron
ser galardonada con el Premio Deming.
1.4.6. Desafíos actuales.
En los últimos años los desarrollos dentro del campo del control estadístico
de la calidad y la fiabilidad han estado centrados básicamente en dos ámbitos
fundamentales. En primer lugar, se pretende analizar detalladamente el efecto
del incumplimiento de las hipótesis estadísticas básicas sobre los gráficos de
control. En este campo, las direcciones presentes de investigación se centran
en:
1.- Análisis de la robustez de los modelos ante alteraciones en la hipótesis de
NUEVAS METODOLOGíAS 35
normalidad, explorando el uso de contrastes distintos a los habituales cuando
no se cumpla esta hipótesis.
2.- Planteamiento no paramétrico del control estadístico de la calidad, de
reciente aparición en la bibliografía especializada, y que precisa tanto de la
especificación de nuevos gráficos de control como del estudio de su efectividad
frente a las técnicas paramétricas clásicas. Son de especial interés los trabajos
de Regina Liu sobre profundidad de datos aplicados a control de calidad.
3.- Desarrollo y análisis de técnicas de eliminación de la autocorrelación
muestral, que aborden el problema directamente desde un punto de vista mul-
tivariante y, por lo tanto, no haya que recurrir a la aplicación sucesiva de técni-
cas univariantes. Dentro de estas técnicas, cabe destacar la posible aplicación
de modelos de series temporales multivariantes para eliminar la correlación
existente entre las observaciones.
Un segundo campo de investigación está centrado en la construcción de
técnicas estadísticas que permitan la reducción eficiente de la dimensionalidad
y que exploten la estructura de correlación poblacional. Con este objetivo, se
abordan dos líneas fundamentales:
1.- La obtención de factores comunes dinámicos, generalización de la téc-
nica de correlación canónica de Akaike, que puede permitir la reducción de
la dimensionalidad sin pérdida excesiva de la cantidad de información mues-
tral. Concretamente, se está estudiando la distribución probabilística de los
mencionados factores comunes, que debe permitir la obtención de límites es-
tadísticos de control y el estudio de la potencia de los contrastes.
2.- Desarrollo de las técnicas de obtención de tendencias comunes, sobre
todo en espacio de estados, que permitan explotar la estructura de correlación
poblacional para obtener gráficos de control más eficientes que los clásicos en
la detección de observaciones fuera de control estadístico.
3.- El Control multivariante mediante imágenes, tanto estáticas como en
movimiento, es también un campo en el que las técnicas de control estadístico
como los modelos de clasificación (SVM) están resultando de gran aplicación.
Hoy en día las industrias enfrentan una competencia global intensa, un
mercado globalizado y complejo, una presión por ciclos de producción más
cortos, productividad basada en objetivos medibles (objetivo prioritario en la
industria alemana), restricciones de coste más severas, así como expectativas
de mejor calidad y fiabilidad por parte de los consumidores que hacen que las
técnicas estadísticas para el control sean más imprescindibles para la toma de
decisiones y la mejora.
1.5. Cuestiones y ejercicios
1.- Diferencias entre el control estadístico y el control ingenieril de procesos.
36 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.
2.- En qué se diferencian las definiciones de calidad dadas por Taguchi y
por Juran.
3.- ¿Qué se entiende por retroalimentación o feedback en el contexto del
control de calidad?
4.- Compárese la metodología DMAIC con el conocido ciclo propuesto por
Shewhart denominado Plan-Do-Check-Act también llamado ciclo PDCA.
CUESTIONES Y EJERCICIOS 37
38 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.
HERRAMIENTASESTADíSTICASPARA
EL CONTROL DE CALIDAD
Contenido del tema: Introducción. Tipos de Control. Control Estadístico
de Procesos. Principales herramientas del control de calidad. Medidas carac-
terísticas. Gráficos de control.
1.6. Introducción.
El objeto de estos primeros capítulos es presentar los métodos estadísticos
de mayor aplicación en el campo del control de calidad y la fiabilidad, aunque
debe resaltarse que la mayoría de los métodos estadísticos aportan gran riqueza
para el estudio de la calidad y fiabilidad de los productos y servicios. Así,
propiciados por los avances en la informática han surgido nuevos conceptos,
algunos encuadrados dentro del campo del análisis exploratorio de datos y
otros dentro de lo que se ha llegado a denominar minería de datos, que son
también, sin duda, de gran utilidad para el control estadístico y que se irán
referenciando en capítulos posteriores.
Es evidente que para poder medir la calidad se necesita el empleo de méto-
dos de control. El papel que juega la estadística en todo este proceso de control
es crucial, una forma de expresarlo es la cita de William Hunter, profesor de
la Universidad de Wisconsin, quien afirmó: “Si se deben mejorar los niveles
actuales de calidad y productividad deben hacerse cambios en el modo en que
se hacen las cosas en la actualidad, debería disponerse de buenos datos que sir-
van como base racional sobre la cual hacer esos cambios. Una pregunta doble
aparece: ¿qué datos tomar? y, una vez recogidos, ¿cómo deben analizarse? La
Estadística es la ciencia que responde a esta doble pregunta”.
La importancia de la estadística para controlar la calidad es algo que nadie
pone en duda. Los juicios que no están respaldados por una buena elección y
estudio de datos no deberían de ser tenidos en cuenta. Bajo esta filosofía de
”hágalo con datos” cabe señalar la frase pronunciada por uno de los gurús de
la calidad, como fue el profesor Deming quien afirmaba: ”No hay conocimiento
que pueda contribuir tanto a la mejora de la calidad, productividad y compet-
itividad de las empresas como el de los métodos estadísticos”.
En este tema se hará una breve introducción a las herrmientas estadísticas
de mayor empleo para el control de calidad y fiabilidad, analizando aquellas
que se agruparían dentro de la estadística descriptiva o deductiva, enten-
dida esta como la parte de la estadística que trata de describir y analizar un
INTRODUCCIÓN. 39
conjunto de datos sin sacar conclusiones o inferencias acerca de la población
que los ha generado. En un capítulo posterior se describirán otros métodos
estadísticos, que podrían agruparse dentro de la estadística inductiva o in-
ferencial (aquella parte de la estadística que trata de extraer conclusiones de
una muestra a la población) y que permitirán hacer estimaciones y modelizar
los datos obtenidos del proceso de control.
1.7. Análisis descriptivo de los datos
En esta sección se resaltarán algunos conceptos estadísticos básicos que
serán utilizados a lo largo del texto. Cabe mencionar que cualquier trabajo
sobre control de calidad o fiabilidad se basará en la recogida de información,
que habitualmente denominamos "datos", pero que podría llamarse con mayor
precisión ”individuos” (estos tendrán un sentido amplio, pudiento representar
tanto lámparas, como tornillos, motores, etc). Estos datos serán extraído de
cierto conjunto mayor, llamado desde la perspectiva estadística, población.
El proceso de toma de recogida de datos (individuos o datos de la población)
suele realizarse mediante la extracción de una parte de esa población teórica que
interesa estudiar a la que se llamará muestra , llamando tamaño muestral
al número de individuos de la muestra.
Es importante prefijar cuando se está hablando de muestra o de población,
en calidad y fiabilidad se trabajará siempre con muestras para estimar car-
acterísticas de interés de las poblaciones. Así se puede medir una muestra de
tornillos extraídos de un proceso de fabricación con objeto de analizar car-
acterísticas de toda la población de tornillos producidos en una determinada
fábrica. Como el estudio se llevará a cabo mediante la recogida de información
del proceso a partir de muestras, hará falta utilizar un determinado méto-
do de muestreo con la idea de posteriormente deducir (inferir) importantes
conclusiones acerca del proceso de estudio.
Una vez fijado el conjunto de datos, el interés se centrará en analizar car-
acterísticas de calidad o fiabilidad de un producto o servicio mediante la infor-
mación aportada por esos individuos. Estas carcaterísticas de interés, desde la
teoría estadística serán lo que se denominen variables estadísticas, que en el
caso en que sea utilizado un procedimiento de muestreo para su obtención, se
llamarán, con mayor precisión variables aleatorias , pues para el proceso de
muestreo serán usado un sistema de selección aleatoria de los datos que entren
a formar parte de la muestra.
Dependiendo de la característica de calidad analizada las variables suelen
dividirse en variables cualitativas y cuantitativas. Las variables cuantita-
tivas suelen además dividirse en discretas (toman un número finito o infinito
numerable de valores distintos) y continuas (pueden tomar cualquier valor en
un intervalo de valores real).
40 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.
Es importante precisar que la finalidad del análisis estadístico está en de-
scribir la variabilidad de los productos sometidos a control, partiendo de la
premisa de que no hay dos unidades de un mismo producto que puedan supon-
erse exactamente iguales, por ello el control y estimación de esta variabilidad
será uno de los objetivos de cualquier control.
Ejemplo 1.1 Con objeto de anlizar la calidad de las barras de acero laminado
utilizadas de forma habitual en la construcción de edificios, se seleccionaron 20
muestras de 5 de estas barras de la cadena de producción de la acería, en difer-
entes días, para analizar su calidad. Estas 100 barras de acero se sometieron a
una prueba de resistencia a la tracción y sus datos fueron recogidos en la tabla
(tabla **). En este ejemplo el interés es controlar una variable (de tipo con-
tínuo) como es la resistencia a la tracción del acero, para lo que se utiliza un
muestreo (muestra de tamaño 100) de la población total de barras fabricadas.
El proceso de muestreo consistió en seleccianar 20 días de forma aleatoria a lo
largo de todo un mes de producción, este proceso se realizó mediante la selec-
ción aleatoria de horas y días, eligiendo 5 de estas barras en cada uno de los
días seleccionados aleatoriamente. Puesto que cada día se realiza una proceso
de colada de acero distante el interés se fijó también en controlar las coladas
diarias, por lo que se buscará analizar también la variabilidad dentro de cada
colada y la diferencia entre coladas producidas en días distintos. Estas barras
se sometieron posteriormente a las pruebas de resistencia. Los resultados de la
resistencia a la tracción, medidos en Megapascales, se muestran en la siguiente
tabla.
Example 1 **tabla megapascales del acero.
1.8. Principales herramientas del control de cal-
idad
Históricamente se vienen empleando una serie de herramientas estadísticas
básicas en el control de la calidad y la fiabilidad que serán objeto de estudio
en detalle en esta sección. Entre ellas estarían las llamadas 7 herramientas
de Ishikawa, que por su frecuente uso en el pasado han sido denominadas
también las 7 magníficas (Guide to Quality Control (1972)). En su presentación
el profesor Ishikawa señalaba las siguientes: diagramas de flujo, tormenta de
ideas, diagramas causa-efecto (hoy también llamados de Ishikawa), diagramas
de barras, análisis de Pareto, histogramas y diagramas de dispersión
Además de estas 7 herramientas básicas, se han añadido a este grupo otra
serie de técnicas de gran implementación. Por ejemplo, posteriormente a la
presentación de estas 7 técnicas, el Instituto fundado por Joseph Juran, y que
lleva su nombre, propuso incluir entre las herramientas básicas las hojas de
PRINCIPALES HERRAMIENTAS DEL CONTROL DE CALIDAD 41
recogida de datos, los mapas de procesos, los gráficos de cuartiles o Box Plot,
el análisis de estratificación y, por supuesto, los gráficos de control de Shewhart,
que serán tratados en capítulos posteriores. Aunque estas últimas técnicas son
de gran utilidad en la práctica habitual en el análisis descriptivo y exploratorio
de los datos, el motivo de que no fueran propuestas por Ishikawa, es porque
varias son posteriores en el tiempo, como es el caso de los diagramas de caja o
gráfico de cuartiles que fueron presentados por John Tukey en 1977.
A continuación se analizarán algunas de estas herramientas, buscando en
cada caso ejemplos de aplicación dentro del control de la calidad y la fiabilidad.
1.8.1. Hojas de datos
Las llamadas hojas de datos o de control son unos impresos adaptados
para la recogida organizada de datos de forma manual para su posterior es-
tudio estadístico. Requieren un cuidadoso diseño para que los datos recogidos
sirvan al propósito establecido por lo que su diseño dependerá de cada estudio
concreto. En algunos casos no son más que hojas para recopilar las frecuencias
de fallos o disconformidades, en otros pueden ser una representación gráfico del
objeto a controlar en el que se van anotando el lugar en el que se observan los
fallos, el interés es facilitar la recogida de información para su posterior análisis
estadístico y en algunos casos permiten la construcción en la misma hoja de
gráficos de Shewhart como el presentado en el siguiente gráfico (véase 1-6).
Ejemplo 1.2 Se muestra una tabla para la recogida de datos para el caso de
un control por atributos, con un gráfico de control en la misma hoja, lo que
facilita la visualización del proceso.
1.8.2. Diagrama de Pareto
Las tablas de distribuciones de frecuencias tienen la finalidad dar una
ordenada representación e interpretación de la información contenida en los
datos. Además de las tablas suele acompañarse el resumen de la información
mediante los correspondientes gráficos de barras de frecuencias. En el con-
texto del control de calidad es habitual representar estas frecuencias ordenadas,
unas veces por su valor absoluto y otras por el coste económico del producto
que se pretende controlar, ese tipo de gráfico con las frecuencias ordenadas es
el denominado gráfico o diagrama de Pareto .
El diagrama de Pareto es un gráfico que ordena una serie de aspectos
(problemas o causas de problemas) según su importancia relativa respecto a un
criterio determinado. Este tipo de representación de las frecuencias es de gran
42 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.
12
34
56
78
91
01
11
21
314
151
61
71
81
92
02
12
223
242
52
62
72
829
303
13
23
33
43
53
63
738
39
40
11
-1
--
--
--
2-
-2
1-
1-
--
--
1-
-2
--
--
32
-1
--
-1
--
A B C D E F G H I J K L M N
2-
1-
-1
--
-1
11
-1
1-
--
--
--
-1
-1
1-
--
11
1-
--
--
-1
--
--
--
--
--
--
-1
--
--
-1
--
--
--
--
--
1-
--
--
--
--
--
-1
--
--
--
--
--
--
--
--
--
--
--
--
--
--
--
--
--
--
--
--
--
--
--
--
--
--
--
--
--
--
--
--
--
--
--
--
--
--
Ø d
el
vás
tag
o
Ø d
el
ext
rem
o
Ex
cen
tric
idad
Ro
sca
M-3
Re
bab
as
Pie
zas
def
ect
uo
sas
21
12
01
00
11
21
03
20
10
01
00
11
02
10
00
42
11
00
01
01
16
12 8 4 020
% d
efe
ctu
oso
10
0p
Defectos
Mu
est
ras
fuer
a
de
co
ntr
ol
31
31
Ø f
uer
a d
e t
ole
ran
cia
s
Cam
bio
de
va
rill
a
Mu
est
ra N
º
91
01
11
21
31
51
617
12.Ene.97
-
-
-
-
-
-
-
91
01
11
21
315
161
7
13.Ene.97
-
-
-
-
-
-
-
91
01
11
21
31
516
17
14.Ene.97
-
-
-
-
-
-
-
91
01
11
213
151
61
7
15.Ene.97
-
-
-
-
-
-
-
91
01
11
21
315
16
17
16.Ene.97
-
-
-
-
-
-
-
Ho
ra
Fe
ch
a
Pie
zaV
ást
ago
Có
dig
oD
-06
07
34
Má
quin
aT
orn
o a
uto
má
tic
o T
50
2O
per
ac
ión
To
rne
ar
y r
osc
arN
CA
2,5
Grá
fico
de
Atr
ibut
os
1º P
erío
do
% D
efe
ctu
oso
me
dio
Ob
ten
ido
3,8
LÍM
ITE
RE
CH
AZ
O
INT
ER
VA
LO
1
2º P
erío
do
% D
efe
ctu
oso
me
dio
Ob
ten
ido
2,3
LÍM
ITE
1
5,2
6
RE
CH
AZ
O
INT
ER
VA
LO
1
Esp
era
do
3,8
Esp
era
do
p10
0p10
0
Figura 1-6 Hoja de recogida de datos para un gráfico de control por atributos.
PRINCIPALES HERRAMIENTAS DEL CONTROL DE CALIDAD 43
interés para un primer estudio cualitativo del proceso, cuando simplemente se
analizan disconformidades, pues permite agrupar, por orden de importancia,
aquellas causas que generan mayor frecuencia de disconformidades.
Es habitual que los procesos industriales, y muchos otros, sigan el determi-
nado ”Principio de Pareto” que afirma que un pequeño porcentaje de causas
(podría ser el 5%) es el que genera un gran porcentaje de problemas (que
podrían ser el 95%). Al visualizar en un gráfico de Pareto las distintas fre-
cuencias ordenadas con un orden de prioridad es posible analizar en qué parte
del proceso es más importante centrar el esfuerzo de mejora. Esta idea sería
posteriormente recogida por Juran, quien la traslada al contexto del control
acuñando la frase de ”pocos vitales y muchos triviales” y que viene a reflejar
que la mayoría de los defectos, y el coste que estos generan, provienen de un
pequeño número de causas.
Aunque el nombre del gráfico, que también se asocia con una determinada
distribución de probabilidad, proviene del economista italiano Wilfredo Pareto
(1848-1923), sería el economista americano Lorenz quien lo popularizaría al
representar el reparto de la riqueza mediante esta distribución. En el caso del
control de calidad, sería el propio Ishikawa quien dará importancia a este tipo
de representación al incluirlo como herramienta básica.
Para la construcción de este gráfico se parte de un sistema de ejes de coor-
denadas, representando en el eje de abscisas las modalidades de la variable y
en el eje de ordenadas las frecuencias. A continuación, sobre cada modalidad se
levanta un rectángulo de altura igual a la frecuencia (absoluta o relativa) rep-
resentada, siendo todos los rectángulos de igual base y ordenándose de mayor
a menor frecuencia.
Ejemplo 1.3 En el gráfico 1-7 puede verse un diagrama de Pareto donde se
representan los fallos anotados por el departamento de control de calidad de
un astillero en la construcción de un barco, se observa que cerca del 60% de
los fallos son debidos a problemas de soldadura, lo que aporta una interesante
información de cara a dónde centrar la mejora.
1.8.3. Diagrama causa-efecto o de Ishikawa
El llamado diagrama causa-efecto, que también se conoce como diagrama
de espina de pescado por su forma característica, permite analizar las causas
que influyen en un proceso al representar mediante un diagrama de forma visual
todas las causas.
Este gráfico suele utilizarse en un primer estudio de los efectos y suele ir lig-
ado al empleo de técnicas exploratorias como las conocidas como Brainstorming
(tormenta de ideas). El objetivo es simplemente visualizar de forma rápida y
ordenada el conjunto de causas que pueden originar un problema y sus posi-
bles relaciones, para facilitar, normalmente al grupo de personas conocedores
44 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.
sold
adur
a
pint
ura
cald
erer
ía
otro
s
Pareto Chart for frecuencia.fallos.buque
Fre
quen
cy
020
4060
8010
0
0%25
%50
%75
%10
0%
Cum
ulat
ive
Per
cent
age
Figura 1-7 Gráfico de Pareto para fallos en construcción de barcos.
PRINCIPALES HERRAMIENTAS DEL CONTROL DE CALIDAD 45
del proceso, una información resumida de todos los factores involucrados en el
estudio lo que permitirá proponer soluciones de mejora.
Históricamente, fue utilizado por vez primera por Kaoru Ishikawa en una
acería de Kawasaki para clasificar las diferentes causas que influían en la calidad
del acero, de ahí el nombre con el que también se conoce de diagrama de
Ishikawa. Luego sería adoptado como herramienta imprescindible por la JIS
(Japan Industrial Standard) que lo define como ”diagrama que muestra la
relación entre una característica de calidad y los factores de producción”
Puede verse un ejemplo del control de calidad de un acero en el gráfico ??.
Como puede verse permite analizar la estructura de las relaciones causa-efecto
que influyen en una característica de calidad de un producto.
**falta gráfico causa (espina de pescado)
1.8.4. Histograma.
Cuando se analizan características de una variable continua (e incluso en el
caso de variables discretas con muchos valores distintos resulta muy difícil apre-
ciar su distribución, para ello será necesario representar esos datos agrupándo-
los en intervalos y construir posteriormente un gráfico donde se represente las
frecuencias de datos por intervalo. A estos intervalos se denominan interval-
os de clase. Puede suponerse que cada intervalo es una modalidad, y elegir
como frecuencia de cada modalidad el número de observaciones agrupadas en
el intervalo correspondiente.
El histograma es la representación gráfica apropiada para la representación
de datos agrupados en intervalos de clase. Para su construcción se representa
en ejes de coordenadas. En el eje de abscisas se presentan los extremos de cada
clase, y, tomando como base de cada rectángulo la amplitud del intervalo de
clase correspondiente, se levanta sobre cada uno de los intervalos un rectángulo
cuya área es proporcional a la frecuencia de ese intervalo.
El histograma permite una visualización de la muestra analizada y pos-
teriormente también será una estimación de lo que se denomina función de
densidad de la variable aleatoria de interés, como se verá en el capítulo 4 de
este texto, posibilitando la modelización de la variable de estudio.
Aunque no existe un criterio unánime, para su construcción se recomienda
utilizar entre 4 y 20 rectángulos, a menudo suele elegirse un valor aproximado
a la raíz cuadrada del tamaño muestral. Aunque la amplitud de los intervalos
puede ser distinta, también es recomendable que estos tengan igual longitud
para proporcionar las alturas con las áreas de los rectángulos. Suele empezarse
con un valor ligeramente inferior al menor de los datos y terminar en un valor
ligeramente superior al mayor.
Ejemplo 1.4 En el gráfico de la figura ?? se representan distintas variables
de un estudio sobre la calidad del aire en la ciudad de New York. Pueden
46 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.
Histograma Ozono
Ozono
frec
uenc
ia0 50 100 150
010
2030
HistogramaRadiación Solar
RadiaciónSolar
frec
uenc
ia
0 50 100 200 300
05
1020
30
Histograma viento
Viento
frec
uenc
ia
0 5 10 15 20
010
2030
Histograma Temperatura
Temperatura
frec
uenc
ia60 70 80 90 100
05
1020
30
Figura 1-8 Diferentes histogramas de variables que analizan la calidad del aire.
observarse diferentes distribuciones de los datos para cada una de las variables
representadas. Mediante estos histogramas es posible un análisis visual de cómo
se distribuyen cada una de las variables de interés.
1.8.5. Diagrama de dispersión o correlación
Los diagramas de dispersión ponen de manifiesto la posible correlación entre
dos variables de estudio con la intención de observar posibles estructuras de
depencia funcional entre ellas (véase el gráfico 1-9). Para el estudio posterior
de la nube de puntos o diagrama de dispersión suelen emplearse modelos de
regresión que permiten encontrar cómo son estas depencias y se definenmedidas
estadísticas que permiten analizar como de fuerte son estas correlaciones.
Ejemplo 1.5 Se representa un diagrama de dispersión de la variable que anal-
iza la calidad del aire en Nueva York (1-9). La nube de puntos presenta la
relación del ozono con respecto al aumento de la temperatura.
PRINCIPALES HERRAMIENTAS DEL CONTROL DE CALIDAD 47
60 70 80 90
050
100
150
Aire en NY
Temperatura
Ozo
no
Figura 1-9 Diagrama de dispersión que relaciona la temperatura con el nivel de
ozono.
48 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.
1.9. Medidas estadísticas
Para el estudio numérico de los datos será necesario definir una serie de me-
didas características. El objetivo de estas medidas estadísticas es medir alguna
característica de interés del proceso (variabilidad, simetría, etc.) aportada por
los propios datos con objeto de dar información cuantitativa del proceso. Estas
medidas suelen clasificarse en tres grandes grupos: de posición, de dispersión y
de forma.
Para su definición se supondrá que se parte de una muestra de tamaño
que se denotará por 1 2 de una variable de interés .
Las medidas de posición determinan una posición en el conjunto de los
datos. Normalmente suelen utilizarse medidas de posición central. La más im-
portante de estas medidas es la media aritmética. La media aritmética ()
y que se define como el valor numérico obtenido al sumar todos los datos de la
muestra y dividir por el tamaño de la muestra:
=1 + 2 + · · ·+
=1
X=1
Es interesante resaltar que la media conserva las transformaciones lineales
de los datos, es decir, si = + ( = 1 2 ) siendo y constantes
arbitrarias, entonces = +
Otra importante propiedad es que la media aritmética de las desviaciones
con respecto a es cero:
1
X=1
( − ) = 0
Además de la media aritmética también pueden definirse otro tipo de me-
dias, como la geométrica, la media armónica, la media cuadrática, etc. En este
contexto de control estadístico la media más utilizada es la aritmética por lo
que se denominará simplemente media a lo largo de este texto.
Además de la media es posible considerar otras medidas de posición como
el caso de lamediana (). Esta se define como la medida de posición central
que, supuestos los datos ordenados de menor a mayor, deja igual número de
valores a su izquierda que a su derecha. Una ventaja de la mediana con respecto
a la media es que es una medida robusta, es decir, menos sensible a la presencia
de observaciones atípicas en la muestra.
La moda (0) se define como el valor de mayor frecuencia de la muestra,
en el caso de tener los datos en intervalos de clase se introduce el concepto
de intervalo modal, que se define como aquel intervalo de clase al que le
corresponde mayor altura en el histograma de frecuencias y puede tomarse
como moda un representante de ese intervalo modal (por ejemplo, el valor
central de esa clase).
Los cuantiles son las medidas de posición que generalizan el concepto de
mediana. Supuestas ordenadas las observaciones de menor a mayor, se define
MEDIDAS ESTADíSTICAS 49
el cuantil de orden p (0 1) como el valor que deja a lo sumo
observaciones a su izquierda y a lo sumo (1− ) observaciones a su derecha.
Además de los cuantiles, en ocasiones, si se utilizan porcentajes se pueden
definir de forma análoga los percentiles.
Por su gran interés en el análisis exploratorio de datos, suelen utilizarse
determinados cuantiles o percentiles, que se denominan cuartiles. El primer
cuartil 1 será el cuantil 0.25 (cuantil 1/4 o percentil 25) el segundo cuartil
2 corresponderá al cuantil 0.5 (cuantil 2/4 o percentil 50 que también será
igual a la mediana) y el cuartil de tercer orden o tercer cuartil 3 corresponde
al cuantil 0.75 ( cuantil 3/4 o percentil 75). Obsérvese que estas medidas de
posición dividen el conjunto de las observaciones en cuatro partes de igual
frecuencia.
Diagramas de caja
A partir de los cuartiles puede construirse el gráfico cuartil también llama-
do diagrama de caja. Estos son gráficos construidos para representar las carac-
terísticas principales de la muestra, permitiendo además identificar la posible
presencia de observaciones atípicas.
Para la construcción del diagrama o gráfico de cajas (box-plot en inglés),
se calculan previamente los 3 cuartiles (1 2 y 3) y unos valores extremos
y también denominados bigotes del gráfico, por lo que a este gráfico
también se conoce como gráfico de cajas y bigotes. Se define el bigote inferior,
denotado por como el valor de la menor observación mayor o igual que
1 − 105(3−1) y el extremo o bigote superior, corresponde a la mayor
observación menor o igual que 3 + 105(3 −1)
= mın { / ≥ 1 − 105(3 −1)} = max { / ≤ 3 + 1
05(3 −1)}
Las observaciones que caen fuera del intervalo ( ) se consideran datos
atípicos (outliers en inglés).
Ejemplo 1.6 Se observan los diagramas de cajas para el caso del ejemplo de
la calidad del aire en Nueva York (ver 1-10).
1.9.1. Medidas de dispersión
Las medidas de dispersión, como su propio nombre indican, tratan de medir
la dispersión o concentración de los datos. Las más populares son aquellas que
cuantifican la dispersión o variación con respecto a un valor central (en general
la media), pudiéndose interpretar como medidas de la representatividad de
dicho valor.
50 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.
050
100
150
Box−plot Ozono
Ozo
no
050
150
250
Box−plotRadiación Solar
Rad
iaci
ón S
olar
510
1520
Box−plot Viento
Vie
nto
6070
8090
Box−plot Temperatura
Tem
pera
tura
Figura 1-10 Diagramas de caja para las 4 variables de la calidad del aire.
MEDIDAS ESTADíSTICAS 51
Suelen clasificarse en absolutas o relativas, según dependan o no de las
unidades de medida, debiendo utilizarse el último grupo para la comparación
de variables.
Se define la varianza como la media aritmética de los cuadrados de las
desviaciones con respecto a la media aritmética:
2 =1
X=1
( − )2
Se define la desviación típica como la raíz positiva de la varianza, esto
es, la media cuadrática de las desviaciones con respecto a la media aritmética:
=
vuut1
X=1
( − )2
Aunque tanto la varianza como la desviación típica son medidas de la
variación con respecto a la media aritmética y tienen un significado semejante,
el uso más frecuente en la práctica de la desviación típica se justifica porque
esta medida se expresa en las mismas unidades que los valores de la variable,
al contrario que la varianza, cuyos valores se expresan en unidades al cuadrado.
Es resaltable que tanto la varianza como la desviación típica toman siempre
valores no negativos. Además, si y son constantes cualesquiera e = +( = 1 2 ) se tiene que 2 = 22 y = ||Cuando se desea realizar comparaciones entre valores particulares de vari-
ables medidas en distinta escala, deberán utilizarse las variables tipificadas o
estandarizadas.
Se define la variable tipificada de una variable estadística como la vari-
able () que resulta de restarle su media aritmética y dividir por su desviación
típica:
= −
obteniéndose de esta manera una variable adimensional de media cero y desviación
típica unidad ( = 0 = 1)
En control de calidad es también utulizado el denominado recorrido o
rango de una muestra que no es más que la diferencia entre los valores ex-
tremos:
= max()−mın()Las medidas incluidas en este apartado se caracterizan por ser adimension-
ales (independientes de las unidades de medida) y, en consecuencia, serán las
apropiadas para establecer comparaciones entre variables que tomen valores
positivos. Así surge el interés de utilizar el coeficiente de variación. Este es
la medida de dispersión relativa más popular y, supuesto que 0 se define
como el cociente entre la desviación típica y la media
=
52 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.
Además de las medidas de posición y dispersión son útiles para conocer
la forma de una distribución las medidas de forma que permiten identificar
ciertas desviaciones en la forma de la distribución de frecuencias con respecto
a un modelo de referencia: la distribución normal, cuya funci–n de densidad
adopta una forma caracter’stica, conocida como campana de Gauss. Entre ellas
está el coeficiente de asimetría de Fisher. Esta medida relativa mide si las
observaciones están dispuestas simétricamente con respecto a la media y es
obtenible aunque la distribución no sea unimodal. Es la medida adimensional
definida por:
1 =1
P
=1( − )3
3
Si una distribución es simétrica o insesgada 1 ' 0 Si 1 0 diremos
que la distribución es sesgada a la derecha; diremos que la distribución es
sesgada a la izquierda si 1 0
1.10. Gráficos de control.
Dentro del control estadístico de procesos las herramientas clave son los
gráficos o cartas de control, en las que se representa la evolución en el valor de
un estadístico calculado sobre las mediciones de una característica de calidad
efectuadas sobre los elementos de muestras sucesivas.
Para construir un gráfico de control es necesario definir tres aspectos fun-
damentales:
1. Tamaño de la muestra
2. Intervalo de muestreo
3. Límites de control
La adopción del muestreo es crucial desde el punto de vista de la economía
del control. Antes del desarrollo del control estadístico, el control de la calidad
se basaba en la inspección del producto final y la separación (eliminación) de
aquellos productos considerados como defectuosos.
La inspección al 100% rigurosa, efectuada por un controlador experto que
utiliza métodos de medición absolutamente fiables, es la única que podrá darnos
la seguridad de que las piezas finales son aceptables.
Pero esta manera de proceder presenta una serie de problemas, por una
parte es demasiado costosa y por otra sirve únicamente para separar piezas
buenas de piezas malas.
Hay un consumo de recursos en la elaboración de las piezas que finalmente
son defectuosas, recursos que se pierden. Incluso aunque la pieza pueda ser
reparada o reprocesada, hay un nuevo consumo de recursos productivos y una
nueva inspección, aumentando el coste por unidad producida. La inspección
de 100% de los productos no implica que la inspección abarque el 100% de
GRÁFICOS DE CONTROL. 53
los aspectos que deberían ser inspeccionados y provocará una sensación de
seguridad ficticia.
El control estadístico de procesos (CEP) representa una enorme ventaja
frente al enfoque clásico, pues mediante la determinación del tipo de muestreo
adecuado (procedimiento, tamaño de muestra e intervalo de muestreo) y la
medición del valor de una determinada variable usada para el control de calidad
y su representación en un tipo especial de gráfico (el gráfico de control) puede
tenerse un conocimiento preciso del comportamiento del proceso, permitiendo
a los analistas reaccionar adecuadamente frente a las variaciones.
Gracias a la metodología desarrollada por Shewhart el control de calidad
se desplazó desde la inspección del producto final a la etapa de fabricación
de los productos, de modo que lo que se intenta es minimizar la producción
de piezas defectuosas. Con el enfoque clásico de inspección a posteriori, no se
puede evitar el consumo de recursos que supone la producción de una unidad
defectuosa.
Se tiende a pensar que un gráfico de control no es más que la representación
gráfica de un contraste de hipótesis sobre la estabilidad de los parámetros
que rigen la distribución probabilística de una variable de calidad, usualmente
normal, pero detrás de ellos hay una metodología que se va a tratar de presentar
con mayor detalle en los temas posteriores.
Se definen cinco condiciones necesarias para definir una operación de control
de calidad:
1. Especificar, de forma general, cómo se examinará una secuencia de n
observaciones para indagar la existencia de causas asignables de variabilidad.
2. Especificar cómo se obtendrán los datos y cómo se organizarán de forma
que sea posible determinar si las condiciones bajo las que fueron obtenidos son
las mismas o no.
3. Especificar el criterio de control que se usará, indicando qué estadísticos
se emplearán y cómo intervendrán en la determinación de los límites de control.
4. Especificar qué acción se emprenderá cuando un estadístico observado
esté fuera de los límites de control.
5. Especificar de qué cantidad de datos que cumplan los criterios de control
debe disponerse para aceptar que el proceso ha alcanzado un estado de control
estadístico. Ya que las causas asignables de variación pueden estar presentes
desde el principio, es necesario que el proceso de control sea gradual.
Ejemplo 1.7 En la figura 1-11 pueden verse un gráfico de control que se
analizará con detalle en los temas siguientes.
54 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.
xbar Chartfor diameter[1:40, ]
Group
Gro
up s
umm
ary
stat
istic
s
1 3 5 7 9 12 15 18 21 24 27 30 33 36 39
73.9
9074
.000
74.0
1074
.020
LCL
UCL
CL
Number of groups = 40Center = 74.0036StdDev = 0.01007094
LCL = 73.99009UCL = 74.01712
Number beyond limits = 2Number violating runs = 1
Figura 1-11 Gráfico de control tipo Shewhart para el diametro de 40 pistones.
S Chartfor x
Group
Gro
up s
umm
ary
stat
istic
s
1 3 5 7 9 11 14 17 20 23 26 29 32 35 38
0.00
00.
005
0.01
00.
015
0.02
0
LCL
UCL
CL
Number of groups = 40Center = 0.009435682StdDev = 0.01003811
LCL = 0UCL = 0.01971112
Number beyond limits = 0Number violating runs = 0
Figura 1-12 Gráfico de Shewhart para el peso de las latas de bonito.
GRÁFICOS DE CONTROL. 55
56 INTRODUCCIÓN AL CONTROL DE LA CALIDAD.
2. CÓMO FUNCIONAN LOS GRÁFICOS
DE CONTROL
Contenido del tema: Introducción. Relación con los contrastes de hipótesis.
intervlaos de tolerancias. Tipos de gráficos de control. Calidad y coste. Inter-
pretación de los gráficos de control.
2.1. Introducción.
En este capítulo se introducirán los conceptos básicos sobre el funcionamien-
to de un gráfico de control, cómo y porqué resultan útiles para el control de la
calidad.
Como ya se ha comentado repetidas veces, la variabilidad es algo inherente
a cualquier proceso y su control será uno de los objetivos prioritarios de los
métodos estadísticos aplicados a la calidad. Para ello será necesario fijar unos
límites que delimiten hasta donde esta variabilidad puede suponerse debida a
çausas fortuitas". En el caso en el que en el proceso sólo se presentan este tipo
de causas se dirá que el proceso está bajo control estadístico. Existe otro tipo
de variabilidad que suele estar ligada a fallos en el proceso y que normalmente
se conoce como çausas atribuibles", cuanda estas causas están presentes se
dirá que el proceso está fuera de control. Un objetivo del control estadístico es
detectar la aparición de salidas de control o cambios importantes en el proceso,
es decir, visualizar cuando se presentan causas fortútas de cuando las causas
son atribuibles.
La forma más común para la construcción de un gráfico de control es dibu-
jando una línea central, que podrá ser una medida de posición (media, medi-
ana,...), una proporción o una medida de dispersión (rango, varianza, desviación
típica). En el gráfico suele presentarse otras dos lineas horizontales, llamadas
límites superior e inferior de control (LSC y LIC). Para la elección de estos
límites se buscará que cuando el proceso se encuentre bajo control estadísti-
co, çasi"la totalidad de los datos muestrales representados en el diagrama se
encuentren entre esos límites. Los puntos representados en el gráfico corre-
sponden a estimaciones de alguna característica de interés del proceso, medias
muestrales, proporciones, rangos, etc.
En el gráfico se van representando de forma correlativa los valores mues-
trales con objeto de poder monitorizar el proceso. Se acostumbra a unir los
valores representados mediante líneas poligonales para poder visualizar con
CÓMO FUNCIONAN LOS GRÁFICOS DE CONTROL 57
mayor facilidad la salida de los límites de control, o la presencia anómala de
secuencias no aleatorias (rachas). Debe mencionarese que aún cuando todos los
valores muestrales se encuentren en los límites de control pueden presentarse
secuencias de valores por encima o por debajo de la línea central que indiquen
claramente una alteración en el proceso, para ello serán útiles realizar distintos
contrastes que permitan detectar estas salidas de control.
En la figuras 2-1 se representa un gráfico de control teórico. Como línea
central se dibuja la media del proceso, y como límites superior e inferior la
media más y menos 3 veces su desviación típica, sería pues un gráfico de control
de variables que se analizarán con detalle en el tema siguiente. La figura 2-2
muestra una salida de un gráfico de control para la media de una característica
de calidad.
Este tipo de gráficos se conocen también como gráficos tipo Shewhart en
honor a su creador, Walter Shewhart, que los empleó por vez primera en sus
trabajos en la Bell Telephone. La empresa americana Bell Telephone tenía
el objetivo de mejorar la fiabilidad de sus sistemas de transmisión. Debido a
que los amplificadores y otros equipos tenían que ser enterrados, había una
necesidad comercial de reducir la frecuencia de los fallos y reparaciones. Cuan-
do Shewhart se unió a la Western Electric Company Inspection Engineering
Department en 1918, la calidad industrial estaba limitada a la inspección de
productos terminados y la remoción de artículos defectuosos. Todo eso cambió
con las aportaciones de Shewhart. George Edwards, que era el jefe de calidad
de esta empresa recuerda: .El Dr. Shewhart preparó un pequeño memorandum
de sólo una página de longitud. Casi un tercio de la página lo ocupaba un
sencillo diagrama que todos reconocemos hoy día como un diagrama de con-
trol esquemático. Ese diagrama, y el corto texto que lo precedía y lo seguía,
establece todos los principios esenciales y consideraciones encerrados en lo que
hoy conocemos como Control Estadístico de Procesos."
Shewhart enmarcó el problema en términos de variacion por Causas Nor-
males o Aleatorias y Causas Especiales o Asignables e introdujo las gráficas
de control como una herramienta para distinguir entre las dos. Shewhart en-
fatizaba que traer proceso de producción a un estado de control estadístico,
donde solo hay variacion por Causas Normales o Aleatorias, y mantenerlo con-
trolado, es necesario para predecir el resultado futuro y administrar un proceso
económicamente.
En ocasiones resulta útil la representación de estos puntos muestrales con
sus correspondientes límites de tolerancias, es el denominado gráfico de toler-
ancias (véase la figura 2-3).
Hoy en día nadie discuta la bondad de los gráficos de control como una
potente herramienta que permite, entre otras coas, mejorar la productividad,
disminuir la variabilidad, evitar defectos, evitar ajustes innecesarios en las
máquinas y proporcionar información del proceso para su análisis y mejora.
58 CÓMO FUNCIONAN LOS GRÁFICOS DE CONTROL
Figura 2-1 Gráfico de control tipo Shewhart.
Figura 2-2 Gráfico de control de la media en el que se representan 20 subgrupos.
Figura 2-3 Gráfico de tolerancias en el que se representan todos los puntos
muestrales y sus límites de especificación.
INTRODUCCIÓN. 59
2.2. Relación con el contraste de hipótesis
El funcionamienteo de un gráfico de control puede relacionarse con las ideas
que sustentan los contrastes de hipótesis. Como es conocido una hipótesis es-
tadística es una conjetura sobre una o varias características de interés.
Bajo esta teoría de los contrastes o test de hipótesis, se denomina hipótesis
nula, que habitualmente se denota por 0, a la hipótesis que se contrasta.
Esta hipótesis nula debe ser la hipótesis que el experimentador asume como
correcta. En el caso del control de calidad la hipótesis nula sería suponer que
el proceso está bajo control en cada una de las muestra selecciondas. Rechazar
la hipótesis nula implica asumir como correcta una hipótesis complementaria,
que en el contexto de los contrastes se denomina hipótesis alternativa y que
suele denotarse por 1. Un punto que esté fuera de los límites de control puede
interpretarse como un incumplimiento de la hipótesis nula y una aceptación de
la alternativa, es decir, dar por contrastado que el proceso ha salido de control.
2.2.1. Errores de tipo I y II o riesgos del vendedor y comprador
En un contraste de hipótesis, a la decisión de rechazar la hipótesis nula
cuando ésta es cierta se la denomina error de tipo I, en este contexto de con-
trol es más habitual denominarlo o riesgo del vendedor, mientras que al
error cometido al no rechazar la hipótesis nula cuando ésta es falsa se la de-
nomina riesgo del comprador (error de tipo II en el caso de los contrastes
estadísticos). Las cuatro posibles situaciones son:Situación real:
H0 es cierta H0 es falsa
No se Rechaza H0 DECISIÓN CORRECTA Error de tipo II o riesgo del c
Se Rechaza H0 Error de tipo I o Riesgo del vendedor DECISIÓN CORREC
En los contrastes de hipótesis se mide su potencia del test mediante la de-
nominada curva de potencia, sin embargo, en el caso de los gráficos de control
se utilizará la inversa de esta curva de potencia que se denomina curva carac-
terística de operación (curva OC de las siglas Operating Characteristics) y que
representa visualizar en una gráfico el error de tipo II (también llamado riesgo
) en función de distintos valores para la hipótesis alternativa. Es frecuente que
dicha curva se construya representando este error en función de la magnitud
del cambio que se pretende estudiar (normalmente expresado en unidades de
desviación estandar).
Ejemplo 2.1 En la figura ?? se represena la curva OC para un control por
variables, en el que se representa en el eje de ordenadas la probabilidad del
60 CÓMO FUNCIONAN LOS GRÁFICOS DE CONTROL
error de tipo II (error que se comete al aceptar que el proceso está bajo control
sin estarlo) mientras que el eje de abscisas muestra distintos valores para la
media del proceso.
Figura 2-4 Curva OC para la media de un proceso.
2.2.2. Subgrupos racionales. Tamaño de muestra y frecuencia de muestreo
En el diseño de gráficos de control una de las decisiones importantes es la es-
pecificar el tamaño muestral y la frecuencia de muestreo. En general, muestras
grandes facilitan detectar cambios pequeños pero cuando existe poca variabil-
idad en el proceso optar por muestras pequeñas puede ser un acierto. Para la
selección del tañano suele hacerse uso de las curvas OC. Si se representan para
distintos tamaño de muestra estas curvas puede ser un instrumento eficaz para
analizar el poder del gráfico.
Por otra parte la frecuencia de muestreo es otro factor importante a tener
en cuenta, lo habitual es considerar cuestiones económicas y del propio proceso
y encontrar un equilibrio entre el tamaño de las muestras y la frecuencia.
Cuando el gráfico de control se emplea para la monitorización en el tiem-
po de un proceso los subgrupos racionales deben de contemplar este factor y
pemitir analizar el proceso a lo largo del tiempo como se de una serie tempo-
ral se tratase. En el caso de controlar una variable con poca dispersión suelen
emplearse muestras pequeñas de tamaño 4 o 5 a intervalos cortos de tiem-
po. Cuando se estudia el control por atributos las muestras necesitarán ser
de mayor tamaño con objeto de poder aplicar las correspondientes aproxima-
ciones de las distribuciones discretas por una continua, como es el caso de usar
la distribución normal como límite de la binomial.
Para resolver el problema del tamaño y la frecuencia, Walter Shewhart pro-
puso elegir lo que denominó subgrupos racionales. La idea es la selección de
subgrupos o muestras de forma que si existen causas atribuibles la probabilidad
RELACIÓN CON EL CONTRASTE DE HIPÓTESIS 61
de diferenciar entre estos subgrupos sea máxima, mientras que se haga mínima
esa probabilidad dentro del subgrupo.
Se emplean distintas formas para la construcción de los subgrupos racionales.
La más frecuente es cuando el objetivo del gráfico de control es detectar cam-
bios pequeños en el proceso. En este caso se buscará minimizar la variabilidad
dentro de cada muestra al tiempo que se maximiza entre muestras distintas.
Este primer enfoque proporcionará buenas estimaciones de la varibilidad en el
caso del control por variables.
Otro enfoque consiste en seleccionar muestras aleatorias en un determinado
intervalo de muestreo con objeto de tomar decisiones de la aceptación o no
del proceso estudiado. Este segundo método requiere de una interpretación
diferente de los gráficos de control. En procesos de la industria química es
frecuente que los datos no cambien en un período corto de tiempo por lo que
se construirán gráficos basados en datos individuales.
La selección adecuada del tamaño muestral y la secuencia de muestreo es
una tarea importante en la creación de los gráficos de control que deberá ser
estudiada con detalle, teniendo en cuenta el coste del proceso y determinadas
características del mismo que permitan maximizar la información que propor-
ciona este tipo de herramientas.
2.3. Tipo de gráficos de Control
Cuando la característica de calidad puede expresarse en términos de una
variable aleatoria continua (longitud, peso, resistencia,...) tendrá interés con-
trolar el valor medio y la variabilidad, para ello existe toda una teoría que
se engloba dentro del denominado control por variables. Estes gráficos serán
tratados con detalle en el tema siguiente.
En el caso en que lo que se tenga es sólo una propiedad como el producto
es defectuoso o no, se utilizarán gráficos de atributos. En este tipo de estudios
es habitual denominar conforme o no conforme y graficar bien el porcentaje de
conformes en función del tamaño de las muestras (gráficos p) o bien el número
de no conformidades por unidad muestreada (gráficos u).
En el caso de los gráficos de variables se buscará controlar una característica
medible,, cuyo objetivo o valor nominal, (en inglés Target: blanco u objetivo)
se representará por . Así, si representa a la variable aleatoria que mide la
longitud de una pieza, será la medida especificada por el diseño de la pieza
en cuestión. En este caso, supondremos que el proceso se ajusta de manera que
la media de la variable aleatoria es precisamente . El objetivo del control
de fabricación será mantener el proceso en estado de control: comprobando que
la media del proceso se mantiene en el valor nominal ( ) y que la dispersión se
mantiene entorno a unos límites. Cuando la media del proceso y su desviación
típica son conocidas, bajo la hipó tesis de normalidad, es posible calcular la
62 CÓMO FUNCIONAN LOS GRÁFICOS DE CONTROL
proporción de elementos producidos cuya característica estará comprendida
entre dos límites fijos.
2.4. Intervalos de tolerancia. Calidad y coste.
Una de las aportaciones del japonés Genichi Taguchi a la calidad ha sido la
incorporación de una función cuadrática para controlar el coste de producción
y tener en cuenta este a la hora de tomar decisiones. La idea será producir con
alta calidad pero sin aumentar el coste esto va permitir elegir unos intervalos de
especificación para los productos basados en el coste que supone su fabricación.
Se define intervalo de tolerancia para como el conjunto de valores que
se consideran admisibles, normalmente estarían marcados previamente al pro-
ceso de fabricación por el comprador del producto o por la siguiente línea de
producción.
Tradicionalmente, si una desviación mayor de hace que el producto sea
defectuoso, el intervalo de tolerancia se fijaba como [− +]. Este enfoquepresenta dos grandes inconvenientes. Uno de ellos es que, si el objetivo final es
fabricar componentes con característica nominal , no parece lógico considerar
igualmente buenas cualesquiera unidades incluidas en el intervalo [− +],sin tener en cuenta su cercanía a . Otro problema consiste en que, de esa
forma, no se está teniendo en cuenta el coste que tiene para el usuario la falta
de calidad (coste de la no calidad). Así, por ejemplo, no es igualmente grave el
fabricar una componente defectuosa que produce una avería final en un aparato
con un coste de reparación de 5000 euros que si el coste es de 500 euros.
Para tratar de resolver ambos problemas se introduce una función de coste
cuadrática también llamada función de Taguchi, que controle que las desvia-
ciones por exceso y por defecto del valor nominal presentan el mismo coste y
que las desviaciones pequeñas tengan un coste reducido, aumentando luego el
coste rápidamente. La expresión para el coste de una unidad con valor de la
característica medible es
() = · (− )2
donde la constante puede obtenerse haciendo uso del coste de reposición
de un elemento defectuoso. Así, si es el coste que para el usuario supone
reemplazar una unidad con 0 = ±, de la igualdad (0) = , se obtiene
que = 2 y, por tanto, la función de coste social o de Taguchi resulta
() =
µ−
¶2
Ejemplo 2.2 Considérese la fabricación de una pieza, con longitud nominal
de 625 mm y que es defectuosa si se desvía en más de 3 mm de este valor,
INTERVALOS DE TOLERANCIA. CALIDAD Y COSTE. 63
siendo 300 euros el coste de reposición para el usuario de una pieza defectuosa.
En estas condiciones, la función de coste social es
() = 300
µ− 6253
¶2
El coste que para el usuario tiene una pieza de 626 mm es de 333 euros.
La determinación del intervalo de tolerancia, por parte del fabricante, debe
hacerse teniendo en cuenta el coste que para un usuario representa el que un
producto sea defectuoso. Denotando por el coste que tiene para el fabricante
la reposición de un producto defectuoso, puede calcularse f ácilmente el valor
que ha de tener la característica medible para que su coste social coincida con
este coste de reposición del fabricante, es decir, resolver () = , obteniendo
= ±
r
En base a estos razonamientos, el intervalo de tolerancia del fabricante debe
ser " −
r
+
r
#
ya que así el fabricante tendrá garantizado que si el usuario le repercutiese el
coste de cualquier producto dentro de dichas especificaciones, este sería menor
o igual que el de reposición.
Ejemplo 2.3 En el caso anterior, si se considera un coste de reposición para
el fabricante de 50 euros, su tolerancia de fabricación debe ser"625− 3
r50
300 625 + 3
r50
300
#= [623 78 626 22]
que es bastante más reducido que el intervalo de tolerancias técnicas [622 628].
En general, siempre que el coste de reposición para el usuario sea poco may-
or que el del fabricante, el intervalo de tolerancias de fabricación será sólo
ligeramente más pequeño que el de tolerancias técnicas. En caso contrario, el
intervalo puede reducirse considerablemente.
Dado que la característica medible se está suponiendo una variable aleatoria
con distribución normal de media y desviación típica , puede calcularse
fácilmente el coste social esperado (o medio) de la fabricación:
[()] =
[( − )2]
2=
2
2
Resulta claro, pues, que reducir la variabilidad de la fabricación equivale a
reducir los costes sociales por falta de calidad.
64 CÓMO FUNCIONAN LOS GRÁFICOS DE CONTROL
2.4.1. El concepto de capacidad
En todo proceso productivo se puede definir una medida de la capacidad
que el proceso tiene para cumplir para satisfacer sus especificaciones de calidad.
Para la determinación de la capacidad del proceso será necesario estimar ciertos
parámetros poblacionales a partir de sus correspondientes valores muestrales,
dependiendo de si se trata de control por variables o por atributos la capacidad
vendrá estimada por parámtros distinos.
Si la característica de calidad es continua y con distribución( ) cuando
el proceso se encuentra bajo control casi la totalidad de las unidades produci-
das (exáctamente el 9973% de las mismas) se encuentran en un intervalo de
amplitud 6, centrado en el valor nominal, . Matemáticamente,
( − 3 ≤ ≤ + 3) = (| − | ≤ 3) = Φ(3)−Φ(−3) =2Φ(3)− 1 = 2 · 0998650− 1 = 09973
Por ello, el intervalo [ − 3 + 3] se denomina de tolerancias naturaleso intrínsecas del proceso. Teniendo esto en cuenta se define la capacidad del
proceso como 6.
Para analizar la adecuación de un proceso a las especificaciones preestableci-
das es necesario conocer su capacidad. Supóngase que el intervalo de tolerancias
o especificaciones de fabricación de un proceso es (), centrado en .
Entonces, se define el índice de capacidad del proceso como el cociente entre
los límites de especificación y su capacidad.
= −
6
Para determinar este índice será preciso estimar el valor de la desviación
típica. Se verá en el tema siguiente como para esta estimación se podrán usar
distintas medidas de dispersión. Este es el índice más sencillo, que sin embargo,
se emplea con mayor frecuencia, aunque existen multitdo de índices, algunos de
ellos específicos para situaciones en los que fallan las hipótesis de normalidad
o simetría de la distribución de la variable analizada.
2.5. Interpretación de los gráficos de control
Para interpretar los patrones de un gráfico de control existen una serie de
pautas que pasamos a analizar.
Cambios bruscos en la media y/o en la variabilidad
Si existe un cambio brusco en la media, este se identificará por valores
extremos fuera de los límites de control en el gráfico de medias, pudiendo no
INTERPRETACIÓN DE LOS GRÁFICOS DE CONTROL 65
verse afectado el de variabilidad. Si el cambio es la variabilidad del proceso
esto se verá reflejado en puntos extremos fuera de los límites de control tanto
en el gráfico de variabilidad como, posiblemente, en el de medias. Mientras que
en el de variabilidad los puntos extremos fuera de control serán de la misma
naturaleza, en el de medias podría salirse de control por extremos opuestos o
incluso algunos permanecer bajo control.
Tendencias o rachas
Si el desplazamiento de la media o de la variabilidad es paulatino a lo
largo del tiempo, esto se manifiesta en lo que habitualmente se denota por
racha, un alineamiento de valores consecutivos de un mismo lado respecto a la
línea central (bien todos por encima o por debajo de la misma). Una racha se
considera indicativa de anormalidad cuando está constituida por 7 u 8 valores.
Así, que aparezca una racha de 8 valores por encima de la media, por azar,
tiene una probabilidad aproximada de 0004.
Periodicidades
Son repeticiones cíclicas de alguna de las gráficas de control. Habitualmente
denotan diferencias entre turnos o estacionalidad en la calidad de la materia
prima, por ejemplo. También pueden ser indicativas de que alguna variable
ambiental (que fluctua con el día, o con la estación del año) tenga alguna
influencia en el proceso.
Inestabilidad
Consiste en la presencia de grandes fluctuaciones que, en ocasiones, pueden
provocar que algún valor caiga fuera de los límites de control. Suelen deberse a
un sobreajuste de la máquina, a la presencia de heterogeneidad en la materia
prima (mezclada a lo largo del tiempo, en almacen, por ejemplo) o a falta de
entrenamiento de un operario.
Sobreestabilidad
Es el fenómeno contrario y se da cuando la variabilidad es menor de la es-
perada. Resulta muy importante identificar esta situación y analizar las causas
que la producen, ya que así podrá reducirse la variabilidad del proceso y au-
mentar, por tanto, su capacidad.
Una forma práctica de identificar esta situación consiste en dibujar una
serie de líneas auxiliares en el gráfico de control, a una y dos desviaciones
típicas, tanto por encima como por debajo, de la l ínea central. Si el proceso
se encuentra bajo control, alrededor del 68 de los puntos se encuentran en la
franja comprendida entre las más cercanas de estas líneas (±). Una presenciasustancialmente mayor de valores en esta zona, indica sobreestabilidad.
66 CÓMO FUNCIONAN LOS GRÁFICOS DE CONTROL
En ocasiones resulta cómodo distribuir las zonas en función del número de
desviaciones, como zonas A, B y C, según se separen en 3, 2 o 1 veces de la
desviación y contar el número de rachas por encima o debajo de estas zonas,
así como las tendencias ascendentes y descentes o los puntos fuera de control
(véase el gráfico 2-5).
Entre los diferentes criterios que se siguen para analizar los gráficos de
control y tomar decisiones están la reglas de la Western Electric (que no es
más que uno de los muchos ejemplos que se pueden encontrar). Estas reglas
dicen que una salida de control estaría indicada si ocurre uno de los siguientes
casos:
Un punto cae fuera de los límites 3 sigma.
Dos de tres puntos caen fuera de los límites dos sigma.
Cuatro de cinco puntos consecutivos se encuentran a una distancia de un
sigma o más de la línea central.
Ocho puntos consecutivos se encuentran al mismo lado de la línea central.
Figura 2-5 Distintas situaciones de fuera de control en un gráfico Shewhart.
INTERPRETACIÓN DE LOS GRÁFICOS DE CONTROL 67
68 CÓMO FUNCIONAN LOS GRÁFICOS DE CONTROL
3. EL CONTROL DE FABRICACIÓN
POR VARIABLES
Contenido del tema: Introducción. Gráficos de control de la media. Capaci-
dad del proceso. Curvas OC. El ARL en el control por variables. Ejercicios del
tema.
3.1. Introducción.
Cuando la característica de calidad puede expresarse en términos de una
variable aleatoria continua (longitud, peso, resistencia,...) normalmente el in-
terés se centrará en controlar el valor medio y la variabilidad de esa variable,
para ello existe toda una serie de métodos que se engloban dentro del denomi-
nado control por variables.
Se supondrá que la finalidad es controlar una característica medible, ,
cuyo objetivo o valor nominal, (en inglés Target) se representará por . Así,
si representa a la variable aleatoria que mide la longitud de una pieza,
será la medida especificada por el diseño de la pieza en cuestión. En este caso,
supondremos que el proceso se ajusta de manera que la media de la variable
aleatoria es precisamente . El objetivo del control por variables será doble:
controlar la media del proceso y controlar su variabilidad.
3.2. Gráficos de control para variables
El control de la media del proceso suele hacerse con el llamado gráfico de
control de medias. Dado que durante la propia recogida de información podría
ocurrir que el proceso pasase a una situación fuera de control, es aconsejable
tomar varias muestras de tamaño pequeño e igualmente espaciadas a lo largo
del intervalo de producción.
Lo habitual, como ya se mencionó en el capítulo anterior, es elegir un
número de muestras de un determinado tamaño. Se denotará por el -é
simo elemento de la -ésima muestra y siendo el número de muestras y el
tamaño de las mismas. De este modo un estimador de la media del proceso sería
la media muestral de las muestras, que se denotará por y que corresponde
EL CONTROL DE FABRICACIÓN POR VARIABLES 69
con la media muestral conjunta de los datos:
=
P
=
P
P
con =
Para el caso de la estimación de la variabilidad, aunque podría proponerse
la cuasivarianza muestral conjunta, dada por:
2 =
P
=1
P
=1( − )
− 1
Esta no resulta ser una buena estimación debido a que no tiene en cuenta
el hecho de que los datos provienen de distintas submuestras y si estas difieren
mucho de unas a otras, el valor de 2 será demasiado grande, subestimando la
varianza del proceso. Es decir, con este método se combinaría la variabilidad
dentro de las muestras con la variabilidad entre las muestras, pero lo ideal será
que la variabilidad se base sólo en una medida que analice la situación dentro
de las muestras, para lo que se proponen estimaciones basadas en calcular la
varianza o recorrido de cada submuestra por separado para luego utilizar su
media.
No debe olvidarse que el estado de control no es algo espontáneo sinó un
logro en sí mismo, por ello es probable que no todas las muestras provengan
de la misma población. Por este motivo se utilizan los gráficos de control.
El objetivo del control de procesos es detectar, lo antes posible, que el proce-
so está fuera de control. Una vez detectada la salida de control del proceso debe
iniciarse una investigación con el objeto de encontrar cual es la causa asignable,
eliminarla del proceso y volver a la situación bajo control. Este método asegu-
ra que la variabilidad final que recibe el cliente sea mucho menor que si no se
realizara el control, independientemente de que todas las piezas puedan seguir
siendo correctas en cuanto a que pertenecen al intervalo de tolerancias.
Para el diseño de este tipo de gráficos es necesario especificar el tamaño de
la muestra, la amplitud de los límites de control y el intervalo de muestreo que
se va a utilizar. Para dar una solución exacta a este problema de estimación es
necesario contar con la ayuda de las personas involucradas en el proceso y tener
también en cuenta los factores económicos del muestreo. En un primer estu-
dio analizaremos la estimación de este tipo de gráficos dando unas directrices
genéricas sin valorar estos aspectos económicos.
Para determinar la capacidad del proceso se deben obtener datos de su
funcionamiento en condiciones normales, es decir, tratando de eliminar primero
todas las causas asignables de variación. En ese supuesto, estimar la capacidad
en el caso del control por variables equivale a estimar la desviación típica de la
caracter ística medible, .
Para la construcción de los gráficos de control supondremos que se toman
de muestras aleatorias de tamaño n de los objetos de interés que se suponen
homogéneas. A continuación se siguen los siguientes pasos que serán diferentes
según se estén utilizando las desviaciones típicas muestrales o los recorridos
70 EL CONTROL DE FABRICACIÓN POR VARIABLES
3.2.1. Gráficos de control ()
Para el control de una característica medible y representada por una vari-
able aleatoria , existen dos tipos de gráficos, por una parte gráficos que nos
ayuden a controlar la posición (gráficos de la media o mediana) y por otra los
que controlan la dispersión (gráficos de desviaciones, varianzas o recorridos).
Por tradicción, uno de los más populares es el basado en los rangos, básicamente
por su gran facilidad de cálculo.
El rango o recorrido de la muestra −ésima no es más que la diferenciaentre la mayor y la menor de sus observaciones:
= max()−mın()Bajo la hipótesis de que la distribución es normal, puede calcularse la dis-
tribución del rango muestral. En particular, su media es 2, donde 2 es una
constante que depende del tamaño muestral, , y que suele darse tabulada.
En procesos bajo control, en los que se supone conocida, puede construirse
un gráfico de control para la dispersión, medida ésta mediante rangos. Tomando
como linea central el valor esperado del rango muestral (2) y como límites
de control los dados por las constantes tabuladas (1 y 2), se realiza una
gráfica en la que se representan los rangos muestrales. Cada vez que uno de ellos
se salga de los límites de control diremos que el proceso no está bajo control.
También están tabulados los coeficientes 1 y 2 que definen el intervalo en
el que se debe encontrar el rango muestral con una probabilidad del 99% para
una población normal de varianza 1.
Puesto que 2 es un estimador insesgado de y, por tanto, su media (a
lo largo de todas las muestras) también lo será. Definiendo
=
P
se tiene entonces que podemos estimar mediante 2 y construir los límites
de control de los gráficos de medias (llamados ahora gráficos ()) mediante:
± 3√2
En donde es la media global de todos los datos o, lo que es equivalente,
la media de las medias de cada submuetra:
=
P
=
P
P
con =
Si todas las muestras provienen de la misma distribución entonces se tiene
que √2( − )
GRÁFICOS DE CONTROL PARA VARIABLES 71
tiene distribución aproximada (0 1). Con lo cual cada valor debe estar en
el intervalo ∙− 3√
2 +
3√2
¸=£−2 +2
¤con probabilidad aproximada del 9973% Utilizando intervalos de amplitud 3
sigma se tiene una probabilidad de cometer un falsa alarma o error de primera
especie igual al 27 por mil, ya que 1 − = 00027 Al igual que ocurría
con 2 1 y 2 las constantes 2 están también tabuladas para distintos
valores de , aunque hoy en día se emplean paquetes estadísticos que calculan
automáticamente y representan gráficamente estos límites.
Se obtienen los valores de los límites de control 3 para la media como:
= −2
=
= +2
Análogamente, como ya se comentó es importante calcular otros gráficos
para el control de la variabilidad. Así el gráfico de variabilidad mediante rangos
tiene una línea central con altura y líneas de control 3 y 4, estando
3 y 4 también tabuladas.
Para la determinación de 3 y 4 se debe de tener en cuenta que la idea es
construir límites de control inferior y superior para el recorrido medio (la línea
central en este caso será ). Si suponemos que = 3 un estimador para
será:
b = 3
2
por lo que podremos obtener como límites de control 3:
= − 3b = − 332= 3
=
= + 3b = + 33
2= 4
donde las constantes, antes mencionadas 3 y 4, que vienen dadas por:
3 = 1− 332
4 = 1 + 33
2
están tabuladas en función de los valores de .
72 EL CONTROL DE FABRICACIÓN POR VARIABLES
3.2.2. Gráficos de control ( )
Como se comentó anteriormente para el caso de los recorridos, se partirá
de muestras de tamaño . En este caso la idea es utilizar las desviaciones
típicas de cada submuestre en lugar de los rangos, por lo que los pasos para la
construcción del gráfico ( ) serán los siguientes:
1. Calcular la media y la desviación típica de cada muestra, y , respec-
tivamente ( = 1 2 ).
2. Calcular la media y la desviación típica global. La media global no es más
que la media de las medias muestrales, que puede calcularse promediando
las medias de cada submuestra o bien promediando el total de los datos
()
=
P
=
P
P
con =
Esta media resulta ser un estimador insesgado de la media teórica,
(también denominda por en este contexto). Como, la desviación típica
muestral es un estimador sesgado (aunque asintóticamente insesgado) de
la desviación típica teórica. De hecho se tiene [] = 2, donde 2 es
una constante, dependiente de , que suele venir tabulada. De esta forma,
2 es un estimador insesgado de y ello motiva el utilizar
=
2=
P
2
como estimador (centrado) de la desviación típica teórica.
Si la varianza fuese la misma en todas las muestras, el estimador prop-
uesto es ligeramente peor que el basado en la media de las cuasivarianzas
2 =
P 2
=
P
P( − )
2
(− 1) =
−
X
2
que es insesgado para 2, pero cuya raíz cuadrada no lo es para . La
razón de usar = 2 es que es más robusto.
3. Contrastar si todas las medias son homogéneas. Si todas las muestras
provienen de la misma distribución entonces se tiene que√2( − )
tiene distribución aproximada (0 1). Con lo cual cada valor debe
estar en el intervalo ∙− 3√
2 +
3√2
¸con probabilidad aproximada del 9973 Utilizando intervalos de amplitud
3 sigma se tiene una probabilidad de cometer un falsa alarma o error de
primera especie igual al 27 por mil, ya que 1− = 00027
GRÁFICOS DE CONTROL PARA VARIABLES 73
4. Podremos obtener los valores de los límites de control 3 para la media
como:
= −1
=
= +1
en donde 1 =3√2
Para ejecutar el contraste de que las muestras, lo que equivale a realizar
contrastes de hipótesis, se suele hacer uso de un gráfico en el que se representa
en abscisas el tiempo (el numero de muestras elegidas de forma temporal) y
en ordenadas la media de la muestra en cuestión. Dibujando dos líneas hori-
zontales, o límites de control, de altura igual a los extremos del intervalo ante-
riormente mencionado, se comprueba fácilmente cuando alguna de las medias
en cuestión cae fuera de los límites de control, siendo esto indicación de que el
proceso, en ese instante, está fuera de control.
3.2.3. Gráfico de desviaciones típicas
Este es un gráfico en el que se mide la variabilidad de cada muestra haciendo
uso de su desviación típica, . Puede demostrarse que un intervalo que contiene
a la desviación típica muestral con probabilidad aproximada de un 9973%
es el dado por (34) donde las constantes 3 y 4 (que dependen de )
están tabuladas.
Para construir este gráfico de control se procede de la siguiente forma:
1. Dado , encontrar los valores 3 y 4 y calcular . Con todo ello obtener
los límites inferior 3 y superior 4 de control.
2. Construir un gráfico que presente en abscisas el tiempo y en ordenadas
los valores . Trazar también las líneas central ( ) y los límites de control
(3 y 4).
3. Si alguna de las desviaciones típicas se sale de los límites de control, se
admite que el proceso no está bajo control en ese instante.
3.2.4. Gráficos de control ( b)Es frecuente, la mayaría de los programas de ordenador lo hacen, usar las
cuasidesviaciones típicas, , en lugar de las desviaciones típicas muestrales, en
74 EL CONTROL DE FABRICACIÓN POR VARIABLES
este caso los valores de las constantes cambian. De hecho se tiene [] = 4,
donde 4 es una constante, dependiente de , que suele venir tabulada. De esta
forma, 4 es un estimador insesgado de y ello motiva usar:
=b4=
P
4
como estimador (centrado) de la desviación típica teórica.
El valor 4 viene dado por la expresión:
4 =
r2
− 1Γ¡2
¢Γ¡−12
¢Podremos obtener los valores de los límites de control 3 para la media
como:
= −3
=
= +3
en donde 3 =3√4
En este supuesto que 4 se utiliza para estimar la desviación típica, se
pueden obtener los siguientes límites para el gráfico de dispersión:
= 3
=
= 4
en donde 3 = 1− 34
p1− 24 y 4 = 1 +
34
p1− 24
3.3. Otros gráficos de control para variables
Aunque los gráficos vistos anteriormente son los más utilizados, existen
otras opciones.
3.3.1. Gráficos con valores poblacionales conocidos
Cuando se conocen la media o la desviación de la variable a estimar podría
utilizarse estos valores para la construcción de los diagramas de control:
OTROS GRÁFICOS DE CONTROL PARA VARIABLES 75
= −
=
= +
en donde = 3√
Del mismo modo para la construcción de un gráfico tipo conociendo la
desviación teniendo en cuenta que = 2 y que = 3 quedaría:
= 2 − 3 = 1
= 2
= 2 + 3 = 2
en donde 1 = 2 − 33 y 2 = 2 + 33
Ejemplo 3.1 Ejemplo de un gráfico de control de medias para 20 muestras.
Figura 3-1 Gráfico para la media con 20 subgrupos utilizando las desviaciones
típicas.
76 EL CONTROL DE FABRICACIÓN POR VARIABLES
3.3.2. Gráficos probabilísticos
También existe la opción de utilizar gráficos basados directamente en la
varianza muestral del proceso (o en la cuasivarianza) 2 :
=2
− 122−1
= 2
=2
− 121−2−1
en donde 22−1 y 21−2−1 denotan los cuantiles correspondientes de la
distribución Chi-cuadrado de Pearson con n-1 grados de libertad. En el caso
que se tuviese un valor conocido de también podría utilizarse en la expresión
anterior.
3.3.3. Gráficos para medidas individuales
En el supuesto que lassubmuestras utilizadas sean de un solo valor, es decir
el tamaño muestral es 1, este es un caso frecuente en control de calidad de
industrias químicas, en las que no tiene mucho sentido tomar muestras de varias
unidades de la misma mezcla (piensese en una cervezera). En este suelen usarse
medias móviles de distinto orden o la amplitud móvil entre dos observaciones
sucesivas para estimar la variabilidad del proceso, a partir de estas amplitudes
se estimaría la media de esos rangos. Así si se utilizasen sólo dos valores las
constantes utilizadas para el gráfico serían las equivalentes a las usadas de una
muestra de tamaño = 2 que resulta un valor de 2 = 1128
Si en alguno de los dos gráficos anteriormente citados hay alguna muestra
que se sale de los límites de control, la eliminaremos, pasando a representar
nuevamente los gráficos excluyendo los valores fuera de control. Si en ese mo-
mento todas las muestras se hallan bajo control, las consideraremos un grupo
homogéneo y en caso contrario procederemos como se acaba de indicar, elim-
inando las muestras fuera de control y repitiendo el proceso hasta obtener un
grupo homogéneo.
Ejemplo 3.2 Para controlar la calidad de un producto se toman = 25 mues-
tras de tamaño = 6 y se calculan la media y la desviación típica de cada una
de ellas. A continuación se adjuntan los resultados de las medias de cada mues-
tra, indicando entre paréntesis su desviación típica: 53 (93), 51 (31), 48 (25),
48 (13), 48 (67), 51 (79), 49 (38), 51 (82), 48 (26), 49 (54), 47 (44),
47 (51), 57 (29), 51 (41), 48 (14), 49 (42), 52 (53), 50 (66), 51 (67), 51
(81), 49 (60), 50 (79), 49 (98), 46 (42), 47 (35). En este caso los límites
OTROS GRÁFICOS DE CONTROL PARA VARIABLES 77
para los gráficos de control. Para el gráfico de medias las líneas de control son
+ 3√2= 5634 y − 3√
2= 4286, con línea central en 496 Por su parte,
para el gráfico , las líneas de control son 4 = 1032 y 3 = 01597, con
línea central en 524. A partir del total de 25 muestras la estimación para la
media del proceso es 496 y para la desviación típica, 551.
Ejemplo 3.3 Mediante los gráficos de control ( ) y , resulta fácil ver que
la muestra número 13 (con una media de 57 y una desviación típica de 29) se
sale de control en el gráfico de medias. Si se procede a eliminarla y se calculan
nuevamente los límites de control (5616 y 4242, para el de medias, con línea
central en 4929 y 1051 y 01627, para el de desviaciones típicas, con l ínea
central en 534). Ahora ya no hay ninguna muestra que se salga de control y,
por tanto, finaliza el procediento para determinar la estimación de la media y
la varianza del proceso, siendo esos valores = 4929 y = 561. De hecho, el
intervalo de tolerancias naturales del proceso sería (32 46 66 12), de longitud
33 66.
Determinar el número de submuetras k, en un gráfico de control para la
media, en el que queremos elegir submuestras de tamaño 4, y pretendemos que
la diferencia entre el valor nominal y la media muestral no sea superior a 5
milésimas con un riesgo = 01 suponiendo una desviación tipica de 0.02
Utilizando la fórmula para un intervalo de confianza en el que el tamaño
muestral sería , se obtiene
=
µ · 2
¶2 =
1
4
µ002(2575)
0005
¶2 = 26523
Por tanto habría que tomar un total de 27 submuestras de tamaño 4.
3.4. Intervalos de tolerancia. Calidad y coste.
Una de las aportaciones del japonés Genichi Taguchi a la calidad ha sido la
incorporación de una función cuadrática para controlar el coste de producción
y tener en cuenta este a la hora de tomar decisiones. La idea será producir
con alta calidad pero sin aumentar el coste. Esto va a permitir elegir unos
intervalos de especificación para los productos basados en el coste que supone
su fabricación.
Se define intervalo de tolerancia para una variable continua como el con-
junto de valores que se consideran admisibles, normalmente estarían marcados
78 EL CONTROL DE FABRICACIÓN POR VARIABLES
previamente al proceso de fabricación por el comprador del producto o por los
responsables de la siguiente línea de producción.
Tradicionalmente, si una desviación mayor de hace que el producto sea
defectuoso, el intervalo de tolerancia se fijaba como [− +]. Este enfoquepresenta dos grandes inconvenientes. Uno de ellos es que, si el objetivo final es
fabricar componentes con característica nominal , no parece lógico considerar
igualmente buenas cualesquiera unidades incluidas en el intervalo [− +],sin tener en cuenta su cercanía a . Otro problema consiste en que, de esa
forma, no se está teniendo en cuenta el coste que tiene para el usuario la falta
de calidad (llamado también coste de la no calidad). Así, por ejemplo, no es
igualmente grave el fabricar una componente defectuosa que produce una avería
final en un aparato con un coste de reparación de 5000 euros que si el coste es
de 50 euros.
Para tratar de resolver ambos problemas, se introduce una función de coste
cuadrática también llamada función de Taguchi, que controle que las desvia-
ciones por exceso y por defecto del valor nominal presentan el mismo coste
y que las desviaciones pequeñas tengan un coste reducido, aumentando luego
el coste rápidamente de forma cuadrática. La expresión para el coste de una
unidad con valor de la característica medible es:
() = · (− )2
donde la constante puede obtenerse haciendo uso del coste de reposición
de un elemento defectuoso. Así, si es el coste que para el cliente supone
reemplazar una unidad con 0 = ±, de la igualdad (0) = , se obtiene
que = 2 y, por tanto, la función de coste social o de Taguchi resulta
() =
µ−
¶2
Ejemplo 3.4 Considérese la fabricación de una pieza, con longitud nominal
de 625 mm y que es defectuosa si se desvía en más de 3 mm de ese valor,
siendo 300 euros el coste de reposición para el cliente de cada pieza defectuosa.
En estas condiciones, la función de coste social será:() = 300¡−6253
¢2 Por
ejemplo, el coste que para el cliente tiene una pieza fabricada con 626 mm es
de 333 euros.
(626) = 300
µ626− 625
3
¶2= 33 33
La determinación del intervalo de tolerancia, por parte del fabricante, debe
hacerse teniendo en cuenta el coste que para el cliente representa el que un
producto sea defectuoso. Denotando por el coste que tiene para el fabricante
la reposición de un producto defectuoso, puede calcularse fácilmente el valor
INTERVALOS DE TOLERANCIA. CALIDAD Y COSTE. 79
que ha de tener la característica medible para que su coste social coincida con
este coste de reposición del fabricante, es decir, resolver () = , obteniendo:
= ±
r
En base a estos razonamientos, el intervalo de tolerancia del fabricante debe
ser " −
r
+
r
#
ya que así el fabricante tendrá garantizado que si al cliente le repercutiese el
coste de cualquier producto dentro de dichas especificaciones, este sería menor
o igual que el de reposición.
Ejemplo 3.5 En el ejemplo si se considera un coste de reposición para el
fabricante de 50 euros, su tolerancia de fabricación debe ser"625− 3
r50
300 625 + 3
r50
300
#= [623 78 626 22]
que es más reducido que el intervalo de tolerancias técnicas [ − + ] =
[622 628].
En general, siempre que el coste de reposición para el cliente sea un poco
mayor que el del fabricante, el intervalo de tolerancias de fabricación será sólo
ligeramente más pequeño que el de tolerancias técnicas. En caso contrario, el
intervalo puede reducirse considerablemente.
Desde la perspectiva estadística, si se supone que la característica medible se
ajusta a una variable aleatoria con distribución normal de media y desviación
típica , puede calcularse fácilmente el coste social esperado (o medio) de la
fabricación:
[()] =
[( − )2]
2=
2
2
Observando esta relación es evidente que reducir la variabilidad de la fabri-
cación equivale a reducir los costes sociales por falta de calidad.
3.5. El concepto de capacidad
En todo proceso productivo se puede definir una medida de la capacidad
que el proceso tiene para cumplir para satisfacer sus especificaciones de calidad.
Es el llamado índice de capacidad.
80 EL CONTROL DE FABRICACIÓN POR VARIABLES
Si la característica de calidad es continua y con distribución( ) cuando
el proceso se encuentra bajo control casi la totalidad de las unidades produci-
das (exáctamente el 9973% de las mismas) se encuentran en un intervalo de
amplitud 6, centrado en el valor nominal, . Matemáticamente,
( − 3 ≤ ≤ + 3) = (| − | ≤ 3) = Φ(3)−Φ(−3) =2Φ(3)− 1 = 2 · 0998650− 1 = 09973
Por ello, el intervalo [ − 3 + 3] se denomina de tolerancias naturaleso intrínsecas del proceso. Teniendo esto en cuenta se define la capacidad del
proceso como 6.
Para analizar la adecuación de un proceso a las especificaciones preestable-
cidas es absolutamente necesario conocer su capacidad. Supóngase que el in-
tervalo de tolerancias de fabricación de un proceso es (), centrado en .
Entonces, se define el índice de capacidad del proceso como
= −
6
Atendiendo al valor del índice de capacidad se presentan tres casos diferen-
ciados:
1. 1. El proceso no puede cumplir las especificaciones requeridas.
Además, cuanto más pequeño sea el índice de capacidad mayor será la
proporción de piezas defectuosas. La recomendación práctica será tratar
de reducir la variabilidad no asignable, lo cual requiere cambios en el pro-
ceso o en el producto. Si esto no es posible, el proceso ha de someterse a
una inspección muy frecuente para prevenir cualquier pequeño desajuste
que aumente, aún más, el número de defectuosos. Nunca deben modifi-
carse las tolerancias, que deben estar basadas en especificaciones técnicas
y razones económicas, pero no en la capacidad del proceso.
2. = 1. Según lo apuntado anteriormente, el proceso fabricará aproxi-
madamente un 03 de defectuosos. Tradicionalmente un tipo de proceso
que cumpliese esta característica se consideraba justamente apto para la
fabricación. No obstante, en la actualidad este porcentaje de defectuosos
puede ser inaceptable en muchos productos (cuyas proporciones de de-
fectuosos se cuentan en uno o dos por millón). Además también exije
un control muy estricto porque pequeños desplazamientos de la media
pueden provocar aumentos muy considerables de la proporción de defec-
tuosos.
3. 1. En este caso el porcentaje de defectuosos es realmente muy pe-
queño (aunque la palabra “pequeño” siempre es relativa ya que depende
del sector industrial concreto). Por este motivo tan sólo es necesario su-
pervisar el proceso por si se producen desviaciones acusadas del estado
de control.
EL CONCEPTO DE CAPACIDAD 81
El índice de capacidad nos permite calcular el porcentaje de defectuosos,
pero además también ayuda a elegir entre procesos alternativos, a establecer
un sistema de control durante la fabricación mediante la toma de muestras
cada cierto tiempo (ver tabla adjunta) e indica un punto de partida para la
mejora del proceso. En la metodología Six Sigma este índice se busca que de
un número superior a 2.
Índice de capacidad Frecuencia de inspección
≤ 1 Todas las unidades
1 ≤ 14 Intensiva (cada 15 ó 30 minutos)
14 ≤ 17 Moderada (cada hora)
17 ≤ 2 Espaciada (cada 2 horas)
2 Depende de la frecuencia de anomalías
Figura 3-2 Concepto de capacidad según seis sigma.
La desviación típica de un proceso de fabricación de componentes electróni-
cos es 005 V. Se trata de fabricar dos componentes y que se consideran
defectuosos si su tensión varía más de 05 V. Calcular el índice de capacidad
del proceso si el coste de fabricación de ambos es el mismo, 50 euros. pero el
coste de fallo para el usuario es de 80 euros para y 250 para . Suponiendo
una función de coste cuadrática, los costes sociales en cada caso son
() =80
025(− )2 () =
250
025(− )2
luego, los intervalos de tolerancias son [ − 0395 − 0395], para el , y[ − 0224 +0224], para el . Como consecuencia, sus índices de capacidadson =
079
030= 2 63 y =
0448
030= 1 49. Así pues el proceso es muy
capaz y la inspección es poco frecuente, mientras que en el , la capacidad es
adecuada y la inpección debe ser moderada. Desde la perspectiva Six Sigma el
proceso B no sería capaz, mientras que el A si.
Una vez determinada la capacidad de un proceso, se compara con las tol-
erancias del producto, para hallar así el índice de capacidad y seleccionar la
frecuencia de muestreo. Así se da paso al llamado control de fabricación.
82 EL CONTROL DE FABRICACIÓN POR VARIABLES
El objetivo del control estadístico de fabricación es comprobar continua-
mente si el proceso se encuentra bajo control. Es un error muy frecuente el
pensar que el control de fabricación se introduce para observar si el producto
se halla dentro de tolerancias (cambiando los lí mites de control por los de
tolerancia).
Construyendo gráficos de medias y de variabilidad puede observarse si, a
lo largo del tiempo, el proceso está bajo control, simplemente viendo que en
ninguno de los dos gráficos las observaciones se escapan de los l ímites de
control. Si, por el contrario, en alguno de estos grá ficos una muestra se sale
de control, dado que la probabilidad de error de tipo I (afirmar que la muestra
no está bajo control cuando realmente lo está) es muy pequeña (del orden del
1 ), rechazaremos el que el proceso se encuentre bajo control en ese instante e
investigaremos las causas de este hecho para evitarlas en el futuro.
3.6. Curva característica de operación (CurvaOC)
Con objeto de valorar la idoneidad de los gráficos de control para detectar
cambios en el proceso se puede recurrir a la teoría de los contrastes de hipótesis,
en donde la hipótesis nula sería considerar que el proceso está bajo control
frente a la alternativa que sería que el proceso no está bajo control, bajo estas
premisas surge los conceptos de error de tipo I que sería el error que se comete al
suponer el proceso fuera de control cuando realmente está bajo control, también
llamado en este contexto riesgo del vendedor o proveedor o riesgo (también
se puede llamar probabilidad de falsa alarma) y el error de tipo II; que es el
que se comete al considerar que el proceso si está bajo control no estándolo,
llamado riesgo o riesgo del comprador. Estos riesgos dependen del tamaño
de la muestra y de los intervalos de aceptación y rechazo de la hipótesis nula.
Cuando se grafican el riesgo en función de la magnitud del cambio que se
pretende estudiar (normalmente expresado en unidades de desviación estandar)
se obtiene una curva denominada Curva Característica de Operación o curva
OC (Operating Characteristics, que sería la equivalente a la curva de potencia
de un contraste, concretamente sería uno menos la potencia).
Ejemplo 3.6 En la figura 3-3 se muestra la curva OC para el control de la
media del proceso, mientras que la figura 3-4 muestra como varían estas curvas
en función del tamaño muestral de cada submuestra, gráficando la probabilidad
de aceptar en función de valores de la media en el primer caso y en función de
la desviación típica en el segundo caso.
En el caso de que estemos interesados en calcular el error de tipo II al pasar
de un valor nominal a un valor 1 = 0 + supuesto que la característica
de calidad medible se ajusta a una distribución ( ) con lo que la media
muestral ∈ ( √) si suponemos que = 0+ √
y = 0− √
CURVA CARACTERíSTICA DE OPERACIÓN (CURVA OC) 83
Figura 3-3 Curva OC para la media del proceso.
Figura 3-4 Diferentes curvas OC en función del tamaño de las submuestras.
84 EL CONTROL DE FABRICACIÓN POR VARIABLES
= ( ≤ ≤ = 1 = 0 + )
= Φ
"− (0 + )
√
#− Φ
"− (0 + )
√
#
= Φ
"0 + √
− (0 + )
√
#−Φ
"0 − √
− (0 + )
√
# = Φ
£−
√¤−Φ
£−− √¤
En el supuesto más clásico en que se usen límites 3 sigma ( = 3) tomando
por ejemplo = 5 y = 1, es decir 1 = 0 + tendríamos:
= Φh3− 1
√5i− Φ
h−3− 1
√5i
= Φ [0763 93]−Φ [−5 236 1]' 07764
En este supuesto el error de tipo II tiene una alta probabilidad, si lo que se
pretende es medir el riesgo cuando 1 = 0 + 2, realizando cálculos similares
se obtendría un valor de 007 para la probabilidad de error de tipo II.
Para la construcción de la curva para un gráfico de variables se puede
hacer una gráfica en la que en el eje Y se ponga la probabibilidad del error
de tipo II o riesgo y en el eje de abscisas distintos valores para , según la
expresión = Φ [− √] − Φ [−−
√] de esta forma es posible obtener
varias curvas OC para cada uno de los tamaños de las submuestras consideradas
.
Dados los puntos en la curva característica (0 ) y (1 ) teniendo en
cuenta la teoría de contraste de hipótesis, suponiendo una que los datos siguen
una distribución normal, el tamaño muestral vendría determinado por:
=
µ
2+
¶2siendo el descentrado relativo, es decir,
=|− 0|
0
En este contexto la probabilidad de rechazar 0( = 0) vs 0( 6= 0) :
2− £Φ ¡2− √¢+ Φ
¡
2+ √¢¤
La curva característica o probabilidad de aceptar H0 en función del descen-
trado , sería:
() = Φ¡
2− √¢+ Φ
¡
2+ √¢− 1
CURVA CARACTERíSTICA DE OPERACIÓN (CURVA OC) 85
En el supuesto de que estemos interesados en contrastar hipóteis unilateral
del tipo 0( = 0) vs 0( 0) la expresión de la curva característica
sería:
() = Φ¡
2− √¢ ≥ 0
y el tamaño de la muestra en este supuesto unilateral de la hipótesis alter-
nativa se podría calcular fijando los puntos de la curva característica (0 ) y
( ) mediante:
≥µ +
¶2ya que
Φ¡
2− √¢ ≤ ⇒− ≥
2− √
Ejemplo 3.7 En la fabricación de botes de refrescos se quiere verificar que su
valor nominal está entorno a los 33 cl que marca el envase, para determinar
el valor de la curva característica para un valor del tamaño muestral de 5 se
queremos detectar un cambio cuando el contenio medio sea inferior a 32 cl,
suponiendo una desviación tipica poblacional de 0 = 123 obtendríamos:
=|− 0|
0=|33− 32|123
= 0813 01
Por tanto () = Φ¡1645− 0813 01√5¢ = Φ( −017) = 04325. Esto quiere
decir que si la media del proceso fuese realmente 32 cl en el 43.25% de las mues-
tras de tamaño 5 se llegaría a aceptar que la media real es de 33 cl (Hipótesis
nula), es decir cometeríamos un error de tipo II con probabilidad 0.4325, lo
que llevaría a buscar otro test distinto o bien a aumentar el tamaño muestral
con objeto de hacer este más potente (la potencia en este caso sería sólo del
56.75% (1− 04325) Si quisieramos una potencia del test del 95% ( = 005
= 1645) :
≥µ +
¶2=
µ1645 + 1645
0813 01
¶2= 1637
3.7. El ARL para gráficos de variables
El uso de las curvas características permite estimar el tamaño muestral
necesario para detectar cambios en el riesgo La probabilidad de que se detecte
un cambio en la -ésima muestra posterior, será 1− veces la probabilidad de
no descubrirlo en cada una de las − 1 muestras iniciales. Así la probabilidadde detectar el cambio en la primera muestra es 1 − en la segunda muestra
86 EL CONTROL DE FABRICACIÓN POR VARIABLES
será (1− ) en general la probabilidad de conseguir detectar el cambio en la
-ésima muestra será: −1 (1− ) Teniendo esto en cuenta podemos estimar
el número de submuestras que habría que analizar antes de detectar el cambio
(se trataría de una distribución geométrica):
∞X=1
−1 (1− ) =1
1−
A este valor del número de muestras necesarias para detectar la primera
muestra defectuosa o fuera de control se denomina (Average Run Length).
=1
1−
El ARL o longitud media de racha es el promedio de puntos que hacen falta
representar en el gráfico (muestras a tomar) hasta que el primer punto muestre
señal de fuera de control. El valor del ARL puede calcularse analíticamente o
por medio de simulación (véase la figura 6-4).
Si por ejemplo se tuviese un valor para de 0.05 el número esperado de
submuestras que habría que analizar para detectar el cambio sería de 1053,
mientras que si el riesgo fuese grande, por ejemplo 0.75, harían falta sólo 4
muestras. Es precisamente a raíz del estudio de este tipo de curvas OC cuando
surgen las recomendaciones de tomar 20 o 25 submuestras para establecer los
límites de control. En el caso en que se si verifica la hipótesis nula, es decir,
cuando si está el proceso bajo control, se tiene:
=0 =1
donde es la probabilidad del error de primera especie. Si por ejemplo
estamos utilizando gráficos de control 3 sigma, saldría un ARL de 100027 =
37037
Para los gráfico de Shehart se pueden graficar distintos valores para el
en función de y .
El conocimiento de los valores de ARL para proceso bajo control y fuera
de control es fundamental en el diseño de los gráficos de control de calidad.
Pues debemos asegurarnos de tener una baja tasa de falsas alarmas (ARL bajo
control alto) y, al mismo tiempo, rapidez suficiente para detectar los cambio
(ARL fuera de control bajo).
También se puede utilizar el ATS (Average Time to Signal) o tiempo prome-
dio hasta la señal, como el tiempo promedio que tardará el gráfico hasta que
éste indique una señal de falta de control. Resulta sencillo obtener una fórmula
aproximada para el valor de ATS si conocemos el tiempo entre muestras, :
=
EL ARL PARA GRÁFICOS DE VARIABLES 87
Figura 3-5 Curva ARL.
3.8. Ejercicios del tema
3.8.1. Ejercicio 1:
En un control de calidad la responsable del empaquetado está interesada en
controlar el contenido de humedad de dichos paquetes, para ello seleccionada
32 submuestras de tamaño 5, como medida toma el contenido de humedad en
los paquetes de sal, como porcentaje del peso total. Resultando una media de
las 32 submuestras de 2.6502, una media de las desviaciones típicas de 0.2425
y una media de los recorridos de 0.6066
a) Calcular los límites de control utilizando las desviaciones al nivel 3
b) Calcular los límites de control utilizando los recorridos al nivel 3.
c) A la vista de los resultados, ¿qué diagrama de los anteriores considera
mejor?
3.8.2. Ejercicio 2
Para realizar un control de calidad sobre el porcentaje de materia grasa
de una determinada marca de mantequilla, se seleccionaron 100 embases de
mantequilla, elegidos en submuestras de tamaño 5. Se determinó el contenido
de de materia grasa total de cada embase, resultando los datos de la tabal
adjunta.
a) Calcula los límites de los gráficos de control 3 de medias para el
contenido medio de materia grasa.
b) Calcula los límites de los gráficos de control de desviaciones típicas
88 EL CONTROL DE FABRICACIÓN POR VARIABLES
c) Considerando como intervalo de tolerancias de materia grasa [65,95],
¿cuál sería la capacidad del proceso según una metodología 3?
Subgrupo Tamaño X-bar S
––––––––––––––––––––––
1 5 85,4626 8,21722
2 5 78,1281 3,66889
3 5 78,9408 3,2049
4 5 78,9221 5,43189
5 5 82,544 5,77852
6 5 79,9901 5,08758
7 5 78,8692 4,22067
8 5 78,8248 7,59128
9 5 79,5877 1,63957
10 5 78,5338 3,64375
11 5 78,8945 4,54403
12 5 80,7316 3,18696
13 5 76,208 3,83605
14 5 79,589 6,29734
15 5 83,5223 5,30842
16 5 80,1668 5,11653
17 5 77,278 3,28091
18 5 81,6929 1,22231
19 5 76,6554 5,13308
20 5 76,1949 3,79899
Pueden ser de interés los siguientes datos (calculados a partir de la tabla
anterior):
Media del Proceso = 79,5368
Sigma del Proceso = 4,79847
Sigma Media = 4,51044
3.8.3. Ejercicio 3
Para controlar la calidad de un acero, se toman 10 muestras de tamaño 6
y se calculan la media y la cuasidesviación típica muestral de la dureza (en
Rocwell C) de cada una de ellas. A continuación se adjuntan los resultados de
las medias de cada muestra, indicando entre paréntesis la desviación típica: 53
(9.3), 51 (3.1), 48 (2.5), 59 (1.3), 48 (6.7), 51 (7.9), 49 (3.8), 51 (8.2), 48 (2.6),
57 (5.4).
a) Calcular un intervalo de confianza, al 99.7%, para la dureza media
del acero, puede utilizarse como desviación típica muestral 5.51.
b) Deducir los límites de los gráficos de control 3 de Medias y de
desviaciones típicas. ¿Qué conclusiones se sacarían de cara a controlar la cali-
dad? ¿Estaría el proceso bajo control?
EJERCICIOS DEL TEMA 89
c) Considerando como amplitud del intervalo de tolerancia 30, ¿Cuál
sería la capacidad del proceso según una metodología 3?
3.8.4. Ejercicio 4
Se está investigando la consistencia de un proceso de fabricación. Los sigu-
ientes datos se tomaron en cuatro momentos distintos de un día. Cada vez,
se extrajeron cinco artículos acabados y se obtu-vieron las siguientes medidas
para cada uno:
M 1 M 2 M 3 M 4
1.025 1.036 1.011 1.022
1.042 1.016 1.029 1.027
1.013 1.028 1.031 1.046
1.027 1.023 1.021 1.033
1.018 1.025 1.019 1.034
a) Determinar los gráficos de control de la media (a partir de la desviación
típica y del recorrido), la desviación típica y el recorrido para un nivel de
confianza del 95%. Dibujar las cuatro muestras en estos gráficos.
b) Discutir si se debe hacer algún cambio a los gráficos de control obtenidos.
c) Estimar la proporción de artículos que tendrán una medida menor o igual
que 1.000 cuando el proceso está bajo control.
90 EL CONTROL DE FABRICACIÓN POR VARIABLES
4. EL CONTROL DE FABRICACIÓN
POR ATRIBUTOS.
Contenido del tema: Introducción. Gráficos de atributos tipo p y np. Curvas
OC y ARL en el control por atributos. Ejercicios del tema.
4.1. Introducción.
En ocasiones una característica de calidad no puede o no interesa medirse
numéricamente y tan sólo se observa si presenta o no determinada propiedad
(un producto es defectuoso o no, una pieza encaja o no en otra, un mecanismo
funciona o no funciona, etc) que en control de caliad suele emplearse el término
“conformidad” o “no conformidad” en lugar de éxito o fracaso (defecto). Es
este tipo de ejemplos los que se estudiarán en el presente tema bajo el contexto
del denominado çontrol por atributos".
Existen normativas específicas que definen estos conceptos sin lugar a equívo-
cos, así, por ejemplo, en las normas UNE se define “defecto” como discon-
formidad de un elemento respecto a las prescripciones impuestas para una
característica. Además, aunque no es preciso su clasificación para el estudio
que se hará en este tema, los defectos suelen agruparse en críticos, principales
y secundarios, en función de su importancia.
Debe mencionarse que aún siendo posible realizar un control por variables,
en muchas ocasiones se lleva a cabo primero uno por atributos. Las razones
suelen ser de tipo económico (el control por atributos es mucho menos costoso)
o de cualificación de los operarios (puede ser complicado para un operario no
cualificado realizar ciertas operaciones, pero es muy sencillo el comprobar con
un calibre si una pieza pasa o no de determinada medida). En estos casos, la
información obtenida mediante un control por atributos es mucho menor. Por
ello es necesario utilizar un tamaño muestral mayor que en el caso del control
por variables.
Normalmente cuando se habla de proporción de defectos o disconformidades
se entiende que es el total de artículos de una determinada población que no
cumplen las especificaciones de calidad, siendo esta proporción estimada medi-
ante la toma de muestras aleatorias de la población, mediante la proporción o
fracción de disconformidades muestral, que no es más que el cociente entre los
artículos disconformes de la muestra y el número total de artículos analizados
o tamaño de la muestra elegida.
El estudio de las disconformidades puede analizarse desde varias perspec-
EL CONTROL DE FABRICACIÓN POR ATRIBUTOS. 91
tivas dando lugar al empleo de diferentes distribuciones de probabilidad. Si lo
que se busca es anotar si el artículo es correcto o defectuoso se recurrirá a la
distribución binomial, pero en los supuestos que se anotan el número de dis-
conformidades por artículo o por unidad, la distribución que explica el proceso
será la distribución de Poisson, en ocasiones suele ser cómodo el empleo de
las aproximaciones de estas distribuciones por la Normal. En el supuesto que
se analizase la fracción de conformidades (lo equivalente al número de éxitos
en una distribución binomial) obtendríamos una estimación del denominado
“rendimiento del proceso”.
En este tema se presentarán los conceptos básicos del control por atributos,
analizando los gráficos más habituales como el de fracción de disconformes o
gráfico , el llamado gráfico que analiza el número de disconformidades y el
gráfico , que se aplica en los estudios en donde interesa estimar el número de
defectos o disconformes por unidad.
4.2. Gráficos de atributos tipo p y np
4.2.1. Gráfico tipo p
El objetivo del gráfico es controlar la proporción de disconformidades
y en la medida de lo posible conseguir que esta proporción disminuya. Así se
estudiarán muestras de elementos, cuyos individuos (artículos) se clasificarán
en conformes (correctos) y no conformes (defectuosos).
Si denominamos por a la proporción de defectusos del proceso, bajo el
supuesto de que esta proporción permanzca estable a lo largo del tiempo y
además, dada la hipótesis de independencia, es decir el supuesto de que el hecho
de que un artículo sea defectuoso es independiente de que lo hayan sido o no las
anteriores a él, se podrá enfocar el problema de la estimación de la proporción
de defectuosos como un proceso de Bernoulli, siendo la distribución del número
de defectuosos en una muestra de tamaño un distribución binomial, que
denotaremos como ( ).
Hay que recordar que la función de masa de probabilidad para una variable
binomial es:
( = ) =
µ
¶(1− )− = 0 1 2
Esta variable tiene como media () = , siendo su varianza () =
.
Para la estimación de la proporción poblacional se eligirá el número de
piezas o artículos defectuosos por lote de tamaño , que denotaremos por , ésta
oscilará de una muestra a otra, con media y desviación típicap(1− ).
92 EL CONTROL DE FABRICACIÓN POR ATRIBUTOS.
En el caso en que el tamaño de las muestras sea suficientemente grande
(mayor de 25, aunque es habitual elegir muestras de tamaño 100 o superior) se
podría aplicar los resultados que garantizan la aproximación de la distribución
binomial por la Normal (teorema central del límite). Utilizando esta última
distribución para analizar el proceso.
En el caso del control por atributos se denomina capacidad del proceso
al valor 1−, es decir, la proporción de elementos no defectuosos fabricados (sesupone en condiciones de control). Para estimar la capacidad podemos seguir
pasos análogos al caso de control por variables. Es decir, estimar el valor de la
capacidad una vez que el proceso esté bajo control. En general, diremos que el
proceso no está bajo control si la proporción de elementos defectuosos se sale
de ciertos límites admisibles (normalmente por haber aumentado notablemente
dicha proporción). Por tanto será necesario estimar los límites de control de
gráficos para este caso y verificar que las proporciones de las submuestras
elegidas se encuentran entre los límites de control superior e inferior de estos
gráficos.
Los pasos a seguir para la construcción del gráfico de control por atributos
o gráfico serán los siguientes:
1. Tomar muestras (al menos 25) de elementos ( 50) y contar el
número de defectuosos, , en cada muestra -ésima.
2. Estimar la proporción de elementos defectuosos total de las muestras
mediante
=
P
=1
3. Comprobar que las muestras son homogéneas respecto de la fracción de
elementos defectuosos. Es decir, comprobar si la fracción de defectuosos
en cada muestra ( = ) está dentro de los límites de control"max
(− 3
r(1− )
0
) + 3
r(1− )
#
Para ello se construye un gráfico de control, similar al gráfico de medias
del control por variables, con los límites de control anteriormente citados
(llamados límites de control de prueba), con línea central de altura y
dibujando los puntos correspondientes a las fracciones de defectuosos de
cada muestra. De esta forma es inmediato reconocer las muestras que
no se hallan bajo control. Eliminado del estudio las muestras que están
fuera de control y repitiendo los pasos anteriores el número necesario de
veces para llegar a un grupo homogéneo puede estimarse fiablemente la
capacidad.
4. Una vez que todas las muestras se encuentren dentro de los límites, eje-
cutando los pasos anteriores las veces necesarias, se eligirán eses valores
GRÁFICOS DE ATRIBUTOS TIPO P Y NP 93
finales que contengan a todas las proporciones muestrales, como límites
de control, es decir:
Obsérvese que en el caso de que la muestras no sean del mismo tamaño,
los límites de los gráficos de control habría que corregirlos por esos tamaños,
lo que lleva a que las líneas de los límites de control de los gráficos presenten
saltos relacionados con el tamaño de la muestra. Así si llamamos al tamaño
de la -ésima muestra su correspondiente estimación sería
1.
=
4.2.2. Gráficos de control np
En algunas ocasiones interesa analizar el número medio de disconfirmidades
en lugar de su propoción, en este caso, se utilizarán los llamados gráficos .
En esencia son similares a los gráficos tipo y en la elección para su empleo
suele influir más el gusto o la costumbre. Para la construcción de este tipo de
gráficas se estimarán las proporciones de la misma forma que en los gráficos
pero se construirán los gráficos basados en la media del proceso del siguiente
modo:
= + 3p(1− )
=
= − 3p(1− )
La interpretación del gráfico de control de proporciones (gráfico ) o la
del gráfico de número de defectos (gráfico ) es totalmente análoga a la de
los gráficos de medias o de dispersión ya tratados en el tema anterior. De los
dos gráficos mencionados aquí es el gráfico el más habitual, usándose más
el gráfico cuando los tamaños muestrales sean siempre iguales. Obsérvese
que para la construcción del gráfico no se requiere esta necesidad pudiendo
tomarse muestras de distintos tamaños
Siempre que un valor se salga de los límites de control y una vez descartados
posibles errores de cálculo o cambios en los criterios de medición, tendremos
evidencias de que el proceso ha variado, aumentando o disminuyendo el por-
centaje de defectuosos.
4.2.3. Curva característica de operación (OC) y curva ARL
Un instrumento interesante para representar la eficacia de un plan de control
por atributos consite en dibujar su curva característica (Curva ). Hay que
94 EL CONTROL DE FABRICACIÓN POR ATRIBUTOS.
recordar que esta función podría tratarse desde el punto de vista del contraste
de hipótesis como la curva que grafica la probabilidad de aceptar incorrecta-
mente la hipótesis nula de que el proceso está bajo control sin estarlo.
Se suele representar la probabilidad de aceptar que el proceso está bajo
control para los distintos valores de la proporción verdadera de defectuosos, .
Es decir, la curva representa la probabilidad de cometer un error de tipo
en el supuesto de analizar la fracción de disconformes mediante un gráfico
esta curva podría obtenerse mediante la expresión:
() = ( ) = ( )− ( ≤ )
Si en lugar de utilizar la distribución binomial se usa su aproximación me-
diante la correspondiente distribución normal, se obtendría una curva aproxi-
mada. Así, por ejemplo, para obtener la curva OC en el caso del gráfico se
procedería represtando para diferentes proporciones el valor:
() = ( ) =
µ − √
¶−
µ − √
¶En el supuesto de la curva OC para el gráfico suponiendo que los tamaños
muestrales difieren para cada muestra , que denotamos por , se obtendría
mediante la representación de:
() = ( ) =
µ − √
¶−
µ − √
¶
=
⎛⎝ − q
⎞⎠−
⎛⎝ − q
⎞⎠La curva característica puede ser usada para determinar el tamaño muestral
a utilizar, para ello pueden fijarse dos puntos de esta curva, uno correspondiente
al proceso bajo control y otro un punto cuya proporción de defectuosas se
quiera detectar con una alta probabilidad. Si llamamos 0 a la proporción
de defectuosas cuando el proceso está bajo control (es decir en el caso que
solo se comente el error de tipo I cuya probabilidad denotamos por ) y a la proporción que interesa detectar con probabilidad , el tamaño muestral
se obtendría mediante las fórmulas similares a las empleadas al caso de un
contraste de hipótesis:
≥Ã2
p0(1− 0) +
p(1− )
− 0
!2Ejemplo. Para estimar la proporción, de disconformes en un estudio
de control de calidad por atributos de una determinada marca de lámparas,
GRÁFICOS DE ATRIBUTOS TIPO P Y NP 95
Gráfico p
Número de muestra
p
CTR = 0,02
UCL = 0,05
LCL = 0,00
0 4 8 12 16 200
0,02
0,04
0,06
0,08
0,1
Figura 4-1 Primer gráfico de control tipo p para la proporción de disconformes.
en el que se pretende analizar la proporción de lámaparas que no funcionan
corrrectamente por lote suministrado, se toman 20 muestras de 100 unidades,
verificando si las lámparas funcinan o no, obteniendo los resultados de la tabla
adjunta
Muestra 1 2 3 4 5 6 7 8 9 10
Defectos 0 2 0 1 0 4 0 1 2 10
Muestra 11 12 13 14 15 16 17 18 19 20
Defectos 0 1 1 3 1 0 1 2 0 1
Con estos datos construir el gráfico de control por atributos de tipo y tipo
.
Los valores de estimados de los límites de control resultan:
La línea central resulta
=
P
=1
= 0015
mientras que los valores para los límites inferior y superior serán:
max
½− 3
q(1−)
0
¾= 0 y + 3
q(1−)
= 005146
Con estas estimaciones se dibuja un primer gráfico tipo (ver 4-1) y se
observa que la muestra número 10 se sale claramente de los límites de control.
Entre los motivos que indican esta salida de control está la posibilidad de
que el dato apuntado fuese erróneo, y se quisiera apuntar como proporción
de disconformes 0.01 (más acorde con un proceso estable) y no el valor 0.1
realmente anotado.
96 EL CONTROL DE FABRICACIÓN POR ATRIBUTOS.
Gráfico p
Número de muestra
p
CTR = 0,01
UCL = 0,04
LCL = 0,00
0 4 8 12 16 200
0,02
0,04
0,06
0,08
0,1
Figura 4-2 Segundo gráfico de control excluyendo la muestra número 10.
Excluyendo del análisis la citada muestra se obtiene un nuevo gráfico de
control en el cual se aprecia que no hay ya ninguna muestra fuera de control.
La nueva estimación de la proporción de defectos es ahora = 00105 y los
límites de control del nuevo gráfico resultarán:
max
½− 3
q(1−)
0
¾= 0 y + 3
q(1−)
= 00411
Para este caso la curva característica, que muestra la probabilidad de acep-
tar que el proceso está bajo control según los distintos posibles valores de
puede verse en la figura 4-3.
En este ejemplo, si se quisiera calcular el tamaño muestral para el caso de
que la eficacia del gráfico detectase que cuando la proporción de defectuosos
fuera del 10% la probabilidad de detectar que el proceso está bajo control sea
del 95% (suponiendo que estamos utilizando que cuando el proceso está bajo
control es equivalente a que = 001, y que estamos con 2 = 3) se tendría:
≥Ã3p001(1− 001) + 1645
p01(1− 01)
01− 001
!2= 77 439
Es decir, se necesitarían elegir muestras de tamaño mayor de 77.
También se podría hacer el gráfico de la correspondiente curva del ARL al
igual que en el caso del control por variables, como puede verse en la figura
Este mismo ejemplo podría analizarse utilizando gráficos tipo np, las esti-
maciones en este caso resultan las siguientes (eliminando también la muestra
GRÁFICOS DE ATRIBUTOS TIPO P Y NP 97
Curva OC para p
0 0,02 0,04 0,06 0,08
Proporción del proceso
0
0,2
0,4
0,6
0,8
1
Pr(
acep
tar)
Figura 4-3 Curva característica para la proporción de disconformes.
Curva ARL para p
0 0,01 0,02 0,03 0,04
Proporción del proceso
0
100
200
300
400
500
Dur
ació
n de
eje
cuci
ón m
edia
Figura 4-4 Curva ARL para los datos del ejemplo.
98 EL CONTROL DE FABRICACIÓN POR ATRIBUTOS.
número 10):
= + 3p(1− ) = 41143
= = 10526
= − 3p(1− ) = 0
4.3. El control de fabricación por número de de-
fectos.
La información que aporta el control por atributos es si el producto pre-
senta o no defectos pero no el número de defectos que tiene. El control por
atributos no es adecuado cuando los defectos aparecen en un flujo continuo (no
van asociados a unidades). Ejemplos de esta situación son las burbujas en un
cristal, los defectos de tinte en una tela, las rugosidades en papel, las soldaduras
defectuosas en una plancha de acero, etc. En estos casos puede ser más ade-
cuado, debido a la naturaleza continua del producto, considerar directamente
el número de defectos por unidad de medida (longitud, área, superficie, peso,
etc.).
El control por número de defectos también se aplica en el caso de los ele-
mentos de fabricación estén bien diferenciados (no sean continuos) pero puedan
presentar varios defectos independientes que mermen aún más su calidad. Un
procedimiento que clasifique estos elementos simplemente en defectuosos y no
defectuosos perdería bastante información.
Se analizará la construcción de gráficos de control para el número de de-
fectos por unidad (gráficos ) y también gráficos para el promedio de defectos
por unidad (gráficos ). La hipótesis que se usará es la de suponer que la
distribución del número de disconformidades por unidad se distribuye según
una distribuciónd e Poisson. Para ello será preciso que el número de discon-
formidades sea grande pero que la probabilidad de obetenerla en la unidad
de muestreo sea pequeña y constante. Mientras estas hipótesis se mantegan el
modelo de Poisson será válido, pero en ciertas ocasiones estos supuestos son
difíciles de verificar, por lo que habrá que ser prudentes en la aplicación de este
tipo de gráficos. En todo caso debe recordarse que una variable de Poisson no
es más que el límite de una variable binomial, ( ), en la que el tiende a
infinito y a cero, manteniendo constante la media .
EL CONTROL DE FABRICACIÓN POR NÚMERO DE DEFECTOS. 99
4.3.1. Gráficos de control tipo c
En este contexto del control de fabricación por número de defectos, se dirá
que el proceso está bajo control cuando el proceso es estable (es decir, fabrica un
número de defectos por unidad de medida, , constante a lo largo del tiempo) y
los defectos aparecen independientemente los unos de los otros. La capacidad
del proceso se definirá como el número medio de defectos por unidad de
medida, es decir el valor .
Suponiendo que el número de defectos por unidad de medida sigue una
distribución de Poisson de parámetro , su función de masa de probabilidad
vendrá dada por:
( = ) =−
! = 0 1 2
Para estimar y determinar, por tanto, la capacidad del proceso y los
gráficos de control, se realizará el siguiente proceso iterativo análogo al descrito
en apartados anteriores:
1. Se eligen muestras de tamaño y se determina el número de defectos
de cada una, 1 2 .
2. Se estima mediante el número medio de defectos por unidad de medida
en el total de las muestras:
=1 + 2 + · · ·+
3. Se construye un gráfico de control (gráfico ) del número de defectos
observados en cada muestra, tomando como línea central y líneas de
control maxn− 3
√ 0oy + 3
√.
= + 3√
=
= maxn− 3
√ 0o
4. Se repiten los pasos anteriores el número de veces necesarias, eliminando
las muestras que hayan salido de los límites de control.
4.3.2. Gráficos de control tipo u
En ocasiones puede ser interesante analizar el número medio de disconformi-
dades por unidad de inspección, sin necesidad de que estas unidades contengan
100 EL CONTROL DE FABRICACIÓN POR ATRIBUTOS.
el mismo tamaño de piezas analizadas. En este caso se pueden elegir mues-
tras, suponiendo que no sean del mismo tamaño, y se utilizará la estimación
siguiente:
=
P P
donde es el tamaño muestral de la -ésima muestra, dibujando un nuevo
gráfico de control, denominado gráfico , para el número de defectos por unidad
de medida, con línea central en y límites de control para la muestra fijados en
maxn− 3
p 0
oy + 3
p y rechazando toda muestra cuyo número
de defectos por unidad de medida, , se salga de los citados límites.
= + 3p
=
= maxn− 3
p 0
o
4.3.3. Sistemas de demérito
En determinados estudios de disconformidades es frecuente que no todos
los defectos tengan la misma importancia, en estos casos se suelen clasificar las
disconformidades de acuerdo a su importancia, que se denominará esquema de
demérito.
Una posible clasificación puede ser la siguiente: defectos muy graves (clase
A), graves (clase B), moderadamente importantes (clase C) y poco importantes
(Clase D). En la que emplearamos las ponderaciones 100, 50, 10 y 1, respec-
tivamnte para cadad una de las clases de disconformidades, A, B, C y D. En
este caso el número medio de deméritos por unidad de inspección sería
= 100 + 50 + 10 +
Siendo el número medio de deméritos por unidad de muestras de tamaño
,
=
Puesto que es una combinación lineal de distribuciones de Poisson, se
podrían construir gráficos de control basados en los deméritos:
= + 3
=
= max {− 3 0}
EL CONTROL DE FABRICACIÓN POR NÚMERO DE DEFECTOS. 101
siendo
=
µ1002 + 50
2 + 102 +
¶12donde y representan el número medio de defectos de clase A,
B, C y D, respectivamente.
Existen otras formas de clasificación de los defectos, como por ejemplo
en defectos funcionales o de aspecto, posibilitando la construcción de nuevos
gráficos de control.
También se pueden obtener gráficos con otro tipo de distribuciones que no
se ajusten a la Poisson, pues no siempre esta será la distribución que mejor
modelo los datos, ejemplos de estos gráficos probabilísticos alternativos a los
tratados en los apartados anteriores, pueden verse en los trabajos de Johson
y Kotz (1969) o un interesante artículo de Jackson (1972). En el trabajo de
Benneyan (2006) se discute sobre el empleo de distintos gráficos de control
para aplicaciones médicas, proponiendo nuevos gráficos, llamados gráficos ,
basados en la distribución geométrica.
4.4. Ejercicios:
1. Cálculese la curva característica del ejemplo de las lámparas, dando tan-
to la función con la distribución binomial como su aproximada mediante la
distribución normal.
2. Se seleccionan, de manera aleatoria, 15 unidades de un proceso de man-
ufactura con el propósito de verificar el porcentaje de unidades defectuosas en
la producción. Con base en información pasada, la probabilidad de tener una
unidad defectuosa es = 005. Si la gerencia ha decidido detener la producción
cada vez que una muestra de 15 unidades tenga dos o más de\-fec\-tuo\-sas.¿Cuál es la probabilidad de que, un día determinado, el proceso se detenga,
supuesto que funciona correctamente? ¿Cuál es la probabilidad de que no se
detenga si = 01?
102 EL CONTROL DE FABRICACIÓN POR ATRIBUTOS.
5. ESTIMACIÓN DE LA CAPACIDAD
MEDIANTE íNDICES
Contenido del tema: Introducción. Concepto probabilístico de capacidad.
Índices de capacidad. Índices enmetrología dimensional. Intervalos de confianza
y contrastes para la estimación de los índices. Ejercicio.
5.1. Introducción.
Un número índice es una medida estadística diseñada para poner de mani-
fiesto los cambios de una variable o grupo de variables con respecto a una
determinada característica. El empleo de índices es muy habitual en todas
las ciencias, y su función principal es la de comparar entre sí individuos o
variables. Así en el ámbito económico son empleados índices de morosidad, o
los índices conocidos de Gini que permite medir la concentración da riqueza de
una población, y que se suele acompañar con la denominada curva de Lorenz.
Otro índice ampliamente usado es el conocido como índice de Laspeyres que
permite valorar el consumo del año en base a precios del mismo año de estudio,
siendo el índice que utiliza institutos nacionales de Estadística como el caso
español del INE para la elaboración del IPC.
Algunos de los índices fueron introducidos hace tiempo y con el uso han
pasado a ser del manejo diario en muchos ambientes. Un ejemplo podría ser
el denominado índice de masa corporal (conocido también como índice de
Quetelet en honor a su descubridor) y que se obtiene como el cociente en-
tre la masa (en kg) entre el cuadrado da altura (en metros) de un paciente.
Otros índices asociados a sus descubridores son los de Paasche, de Fisher, de
Drovisch-Bowley, de Edgeworth-Marshall, de Drovisch-Bowley o el de Wlach.
En el caso del control de calidad los índices permiten medir si un proceso es
o no capaz, relacionando la variabilidad con las especificaciones (normalmente
fijadas por el cliente). En principio la variabilidad puede ser inherente a la
observación, lo que se podría denominar variabilidad “instantánea o natural” o
puede estar dada por la diferencia entre las observaciones a lo largo del tiempo.
El objeto de los índices de capacidad es estimar valores numéricos que permitan
analizar lo “capaz” que puede ser un determinado proceso. N
El uso de índices es habitual en cualquier contexto, pero sin duda donde
tiene una gran importancia es dentro del control estadístico de proceso: son los
conocidos como índices de capacidad. Un índice de la capacidad de un proceso
es un valor numérico que permite tomar decisiones sobre si un proceso es o
ESTIMACIÓN DE LA CAPACIDAD MEDIANTE íNDICES 103
no capaz. El modo de interpretarlos suele asociar que valores grandes de estos
índices darían un proceso como capaz de producir artículos que cumplen con
los requerimientos del cliente.
Por desgracia, las hipótesis tradicionales sobre los datos como la normalidad
o la independencia son frecuentemente violadas en muchas situaciones reales no
siendo, en estas situaciones, válidos los índices tradicionales. Así, en escenario
en la que los supuestos de normalidad o independencia no se verifican, como
por ejemplo cuando los datos están correlacionados o cuando pertenecen a
las distribuciones no centradas y sesgadas serán necesarios índices específicos.
En particular, si la hipótesis de normalidad es violada, es difícil, o incluso
imposible, obtener expresiones cerradas para la distribución de probabilidad
del estimador del correspondiente índice teórico. Esto significa que en muchos
casos, aunque si se podría dar un valor del índice, no sería posible obtener
estimaciones con sus correspondientes intervalos de confianza para la capacidad
del proceso. Como consecuencia, las estimaciones de capacidad puede estar lejos
de los verdaderos parámetros de interés y los fabricantes podrían llevarse a cabo
a tomar decisiones equivocadas sobre la calidad del producto.
Muchos autores han estudiado diferentes estimadores de la capacidad del
proceso en diversos marcos de distribución. Los recientes avances en el análi-
sis inferencial aplicada a las técnicas de control de calidad han motivado obra
teórica sobre la teoría de la distribución de las estimaciones de índices de ca-
pacidad (véase, por ejemplo las obras de Chou y Owen, Clements, Pern y Cols
y Kotz y Johnson). Este último dio lugar a un debate exhaustivo sobre una
serie de índices de capacidad de toma de muestras y sus propiedades. Además,
en el caso particular de tratar con datos no normales y los procesos con es-
pecificaciones unilaterales, se pueden consultar los trabajos de Somerville y
Montgomery, Chen y Pern, Kotz y Lovelace, Shore, Palmer y Tsui, Tang y
Than, Chang et al., Pearn y Chen y Kotz y Johnson.
5.2. Concepto probabilístico de capacidad
La capacidad de un proceso puede ser medida conociendo la distribución
de probabilidad de la variable a controlar. Así, si la característica de calidad
es continua y con distribución ( ) cuando el proceso se encuentra bajo
control (como se supondrá a lo largo de toda esta sección) casi la totalidad de
las unidades producidas (exactamente el 9973% de las mismas) se encuentran
en un intervalo de amplitud 6, centrado en el valor nominal, . Por ello, el
intervalo [−3 +3] se denomina de tolerancias naturales o intrínsecasdel proceso. Teniendo esto en cuenta se define la capacidad del proceso
como 6. Matemáticamente, equivale a realizar el cálculo de la probabilidad
de que la variable aleatoria tome valores en este intervalo, en el caso en que
104 ESTIMACIÓN DE LA CAPACIDAD MEDIANTE íNDICES
esta variable sea normal, esta probabilidad viene dada por:
(− 3 ≤ ≤ + 3) = (| − | ≤ 3) = Φ(3)−Φ(−3) =2Φ(3)− 1 = 2 · 0998650− 1 = 09973
En este supuesto, los límites de tolerancia natural incluyen el 9973% de
la variabilidad, o lo que es equivalente sólo el 027% de las observaciones es-
tarían fuera de estos límites de tolerancia natural. Aunque esta puede ser una
cantidad pequeña no lo es tanto si se compara con el tanto por millón, pues en
un proceso con estas características de calidad se estaría permitiendo la fabri-
cación de 2700 piezas defectuosas por millón de piezas fabricadas, lo que para
los mercados actuales es una cantidad desmesurada. Bajo la metodología Seis
Sigma se utiliza como medida alternativa a los índices de capacidad su equiva-
lente en piezas o defectos por millón, más comúnmente, DPMO (Defectos por
millón de Oportunidades)
=n total de defectos
n unidades x n oportunidades
En la tabla siguiente puede verse como va cambiando la cantidad de defectos
por millón (DPM) y la probabilidad en función de que se trate de un contexto de
distribución normal centrada o se permita un desplazamiento de 15 respecto
al valor de la media, que es la capacidad con la que se trabaja en la metodología
Seis Sigma. Analizando el valor de los DPM puede informarse al productor en
qué nivel se encuentra, si a un nivel de fabricación 3, 4 etc.Nivel Sigma Centrada Desplazada 15 Centrada Desplazada 15
DPM DPM Probabilidad Probabilidad
3 269393 6681063 099730007 093318937
4 6337 62097 099993663 099379030
5 0574 23267 099999943 099976733
6 0002 34 1 099999660
5.3. Índices de capacidad
Para las definiciones de distintos índices de capacidad, se buscará comparar
la variabilidad del proceso con unas especificaciones dadas, bien por el fabri-
cante o bien por el cliente. Se supondrá que el intervalo de especificaciones del
proceso es (). La mayor parte de la literatura dedicada al estudio de
análisis de capacidad de procesos, con frecuencia, considera cuatro índices, ,
, , , cuyas definiciones son las siguientes.
= −
6=
3
ÍNDICES DE CAPACIDAD 105
donde = ( − )2
Además del índice se suele usar su valor porcentual:
=
µ1
¶100
También son muy empleados los correspondientes índices de capacidad in-
ferior () y superior () y el valor que los minimiza ():
= −
3
=−
3
= mın { } = − |− |3
Siendo = ( + )2 Generalmente, si = indica que el
proceso estaría centrado en torno a la media, mientras que diferencias entre
y indican descentralización. Este primer índice aparece ya propuesto
por Juran en 1974, mientras que el índice lo propone Kane (1986).
El índice no tiene en cuenta lo descentrado que se encuentra la media
con respecto al valor nominal o Target , por lo que se suelen utilizar también
los llamados índices de segunda generación como el propuestos por
Hsiang y Taguchi (1985) y, también de forma independientemente, por Chan,
Cheng, y Spiring (1988):
= −
6
q£( − )
2¤ = −
6√
= £( − )
2¤= 2 + (− )
2
Este índice puede expresarse como:
= −
6
q2 + (− )
2=
p1 + 2
=−
Una forma de estimar el valor :
b =b√1 + 2
=−
106 ESTIMACIÓN DE LA CAPACIDAD MEDIANTE íNDICES
Pearn, Kotz y Johnson (1992) definen los llamados índices de tercera
generación como el ,
=mın( − −
3
q2 + (− )
2=
− |− |3
q2 + (− )
2
Obsérvese que estos índices coincidirán en el caso de que = = . Las
propiedades de este tipo de índices pueden estudiarse en la monografía de Kotz
y Johnson (1993).
En el caso de que los datos no sigan una distribución normal, Luceño en
1996 propone el siguiente índice:
= −
6p
2 [ − ]
Nota: Algunos autores, como el caso de Montmgomery (2009), incluyen
también al índice como de segunda generación, pues se obtiene con otros
índices primarios.
5.3.1. Índices generalizados o de cuarta generación
En 1995 Kerstin Vannman propone una reformulación de los índices ante-
riores mediante una expresión que permite obtenerlos para distintos valores de
dos nuevo parámetros no negativos y :
( ) =− |− |
3
q2 + (− )
2
Obsérvese que en esta nueva expresión generaliza algunos de los índices
anteriores, sin más que considerar valores de 0 y 1 para y : (0 0) = ;
(1; 0) = ; (0 1) = ; (1 1) =
Este tipo de índices siguen siendo sólo válidos para el caso de distribución de
los datos normal, por lo que Pearn y Chen (1997) consideraron su generalización
para el caso de distribuciones arbitrarias de los datos, lo que llamaron como
índice ( ), definido del modo siguiente:
( ) =− |− |
3
r³P99865-P0135
6
´2+ ( − )
2
Siendo la mediana del proceso, y siendo el correspondiente percentil
(100)% de la distribución. En el caso en que el proceso siga una distribución
Normal los índices ( ) y ( ) proporcionan el mismo resultado.
ÍNDICES DE CAPACIDAD 107
Finalmente, comentar la aportación de Pearn et al. (2005) que generalizan
estos índices para el caso de distribuciones no normales y asimétricas con el
denominado índice ”(; ):
”(; ) =∗ − ∗
3
r³P99865-P0135
6
´2+ 2
donde = maxn(− )
(−)
oy ∗ = max
n∗(− )
∗(−)
osiendo
= − = - y ∗ = mın( ). Este índice generaliza los
anteriores para diferentes valores de (0 o 1) y (0 o 1). En el caso en que
= , el índice ”(; ) se reduce al ( ).
5.3.2. Índices y capacidad del proceso
Para analizar la adecuación de un proceso a las especificaciones preestable-
cidas es necesario conocer su capacidad. En un principio los valores válidos
para suponer que un proceso era capaz se marcaban cuando la variabilidad del
proceso coincida con el valor de su capacidad estimada, es decir cuando los
índices de capacidad sean 1 o superiores. Sin embargo, en la industria actual, y
también en otros contextos, cada vez se exigen requerimientos “más capaces”,
por ejemplo en la metodología Seix Sigma, la capacidad sería cuando estos
índices dan como resultado el valor 2, siendo empleado su utilización para ver-
ificar en qué estado de control se encuentra el proceso, comparándolo con los
distintos niveles 3 4 o 6
Si el valor que interesa para comparar el número índice se denomina 0 se
presentan tres casos diferenciados:
1. 0. El proceso no es capaz, es decir, no puede cumplir las especi-
ficaciones requeridas. Además, cuanto más pequeño sea el índice de ca-
pacidad mayor será la proporción de piezas defectuosas.
2. = 0. El proceso es potencialmente capaz.
3. 0. El proceso es muy capaz. En este caso el porcentaje de defec-
tuosos es realmente muy pequeño (aunque la palabra “pequeño” siempre
es relativa ya que depende del sector industrial concreto).
El índice de capacidad nos permite calcular el porcentaje de defectuosos,
pero además también ayuda a elegir entre procesos alternativos, a establecer un
sistema de control durante la fabricación mediante la toma de muestras cada
cierto tiempo (ver tabla adjunta) e indica un punto de partida para la mejora
del proceso.
108 ESTIMACIÓN DE LA CAPACIDAD MEDIANTE íNDICES
Por otra parte en algunos casos puede ser de interés establecer distintos
costes asociados a la capacidad de los procesos, pudiendo calcular índices de
capacidad relacionados con el coste de fabricación del producto y con el coste
que repercuta en el cliente o usuario del producto, pudiendo determinar difer-
entes valores de capacidad en función de los costes establecidos. Esto puede
verse en el siguiente ejemplo.
Ejemplo de capacidad y coste: La desviación típica de un proceso de
fabricación de componentes electrónicos es 005 V. Se trata de fabricar dos
componentes y que se consideran defectuosos si su tensión varía más de
05 V. Calcular el índice de capacidad del proceso si el coste de fabricación de
ambos es el mismo, 50 euros. pero el coste de fallo para el usuario es de 80 para y 250 para .Suponiendo una función de coste cuadrática, los costes sociales en cada caso
son
() =80
025(− )2 () =
250
025(− )2
luego, los intervalos de tolerancias son [ − 0395 − 0395], para el , y[− 0224 +0224], para el . Como consecuencia, sus índices de capacidadson =
079
030= 2 63 y =
0448
030= 1 49. Así pues el proceso es muy
capaz y la inspección es poco frecuente, mientras que en el , la capacidad es
adecuada y la inspección debe ser moderada.
5.4. Índices en metrología dimensional
Cuando se pretende controlar el proceso de medir surge de forma lógica la
necesidad de utilizar las herramientas propias de la ciencia encargada de las
mediciones: la metrología, o más concretamente la metrología dimensional
como suele denominarse cuando se abordan problemas similares al del control
estadístico de procesos.
Son numerosos los aspectos que dependen de la metrología, por ejemplo, en
la industria debe llevarse un control riguroso de la precisión que deben tener
las distintas máquinas y la metrología se hace indispensable en estos procesos.
En general será una herramienta imprescindible en cualquier proceso en el que
se presente incertidumbre en la medida. En metrología interesa que la
incertidumbre de la medida sea muy pequeña y en control de procesos lo que
se busca son procesos con índices de capacidad altos. Pues bien, la pregunta
lógica es ¿qué impacto tiene la incertidumbre de medición (error de medición)
con la capacidad del proceso? Dar respuesta a esta pregunta es el objetivo de
esta sección.
Desde el punto de vista estadístico lo más resaltable en el contexto de la
Metrología es analizar laRepetitibilidad y la Reproducibilidad de la medi-
da, los denominados estudios RyR. La principal diferencia del enfoque desde
ÍNDICES EN METROLOGíA DIMENSIONAL 109
el punto de vista de la metrología está en que en este contexto lo que prevale
es estimar la repetividad y reproducibilidad de los instrumentos de medida, así
los factores estudiados son las fuentes de variación y la importancia relativa
de estas fuentes. El enfoque por tanto, debe de ir hacia el estudio de compo-
nentes de la varianza para lo que los diseños “anidados” y “jerarquizados” son
una solución acertada. Estos diseños se basan en modelos de efectos aleatorios
para las observaciones. El análisis de estos diseños aparece en la mayoría de los
textos sobre diseño de experimentos (véase, por ejemplo Montgomery (2005))
y en la mayoría de los paquetes estadísticos (por ejemplo el programa R).
La repetibilidad se estima mediante la varianza del instrumento de medición
(b2), mientras que la reproducibilidad será la variabilidad producida por eloperador (b2). La suma de estas dos variabilidades nos dará una estimacióndel sistema de medición, es la denominada variabilidad RyR (b2).
b2 = b2 + b2Una vez se tiene unas determinadas tolerancias o especificaciones de las
mediciones, para verificar la calidad del instrumento de medición se utilizan
índices como el cociente entre la variabilidad RyR y los límites de tolerancia,
llamado índice Precisión-Tolerancia (P/T):
=b
−
Es posible establecer una relación entre los índices utilizados en metrología
y algunos de los índices de capacidad estudiados en la sección anterior. Así, en
el caso de que se considere = 6 (en el contexto de metrología suele emplearse
el valor 515 valor que tiene que ver con las colas de una distribución normal
que encierre un 99% de probabilidad) y se estime la variabilidad RyR mediante
el mismo estimador usado en la variabilidad del proceso (por ejemplo, 2),
el índice coincide con el inverso del .
5.5. Intervalos de confianza y contrastes para la
estimación de los índices
Cuando se obtienen los índices para un determinado proceso, en la práctica
se estiman en base a datos seleccionados mediante algún método de muestreo.
Como toda estimación, la de los índices de capacidad está sometida a errores
que pueden ser controlados mediante una estimación más precisa que la pun-
tual, como el caso de la estimación mediante intervalos de confianza o la real-
ización de contraste de hipótesis.
En el caso de los índices de primera generación, se podría calcular el interva-
lo de confianza para utilizando el resultado que proporciona la distribución
110 ESTIMACIÓN DE LA CAPACIDAD MEDIANTE íNDICES
de la varianza muestral (2), conocido como teorema de Fisher, y que garantiza
la distribución de la varianza mediante una distribución Chi-cuadrado con n-1
grados de libertad (2−1), por lo que se tendría:
−
6
s21−2−1− 1 ≤ ≤ −
6
s22−1− 1
De donde se obtiene como intervalo de confianza para Cp al (1 − )% de
confianza: ⎛⎝ b
s21−2−1− 1 b
s22−1− 1
⎞⎠Siendo 21−2−1 y
22−1 los valores correspondientes de la distribución
Chi-cuadrado de Pearson que dejan colas de probabilidad de 2 a su derecha
e izquierda respectivamente. Este tipo de estimación suelen proporcionar inter-
valos de confianza excesivamente amplios debido al pequeño tamaño muestral
utilizado.
Para la estimación de intervalos para otros índices se han propuesto uti-
lizar aproximaciones mediante la distribución Normal, puede verse el artículo
de Kotz y Lovelace (1998) donde los autores proponen estimaciones para los
intervalos de confianza para los distintos índices.
En el caso de distribuciones no normales, también el propio Luceño (1996)
propone utilizar el siguiente intervalo para un nivel de confianza del 100(1 −)% para su índice :Ã b
1 + 2−1 √
b
1− 2−1 √
!Siendo 2−1 el valor de la de Student con − 1 grados de libertad que
deja una cola de probabilidad de 2
=1
X=1
| − |
2 =1
− 1X=1
(| − |− )2
Otra alternativa a los intervalos de confianza es usar la filosofía de los
contrastes de hipótesis, en este caso se contrastaría la siguiente hipótesis (nula
y alternativa):
0 = 0
1 : ≥ 0
INTERVALOS DE CONFIANZA Y CONTRASTES PARA LA ESTIMACIÓN DE LOS
íNDICES 111
En este caso la hipótesis nula supone que el proceso es no capaz y se con-
trasta contra la alternativa de que el proceso es capaz, fijado un valor crítico
de consenso 0. En el artículo de Kane (1986) se realiza un amplio estudio
de este tipo de contrastes proponiendo una tabla de valores para la toma de
decisiones.
5.6. Ejercicio
Ejemplo: Con los datos de la dureza del acero de un ejercicio anterior,
que trataba de 20 muestras de tamaño 5 con una media de 519.29 MPa y
una media de las desviaciones de 9.45 MPa. Tomando como especificaciones
= 520 = 480 y = 560. Calcular los índices de calidad del proceso
y un intervalo de confianza para .
Valor del estadístico chi-cuadrado es 239993 con 5 grados de libertad,
resultando un p-valor de 0.791484. Podemos dar por válida la distribución
normal de los datos analizados, por lo que se utilizarán los índices para este
caso, como el y el :
Como 4 = 09400⇒ b = 4= 9494
094= 101
= −
6=560− 4806 (101)
= 132
Índices de capacidad inferior y superior
= −
3=560− 519293 (101)
= 134
=−
3=51929− 4803 (101)
= 13
= mın { } = 13Como el valor = 13, quiere decir que tenemos 96 piezas defectuosas por
millón.
En este caso, supuesto que la desviación típica estimada del proceso es
10.1 y puesto que las muestras eran de tamaño 5, buscando en la tabla de la
distribución Chi-cuadrado, resultan 209754 = 048 y 200254 = 1114⎛⎝ b
s21−2−1− 1 b
s22−1− 1
⎞⎠Ã132
r048
4 132
r1114
4
!(0457 26 2 202 9)
112 ESTIMACIÓN DE LA CAPACIDAD MEDIANTE íNDICES
Figura 5-1 Análisis de la capacidad con el paquete qcc de R.
Obsérvese que el intervalo contiene al 1 (e incluso al valor 2), por lo que con
un 95% de confianza podría considerarse el proceso capaz.
EJERCICIO 113
114 ESTIMACIÓN DE LA CAPACIDAD MEDIANTE íNDICES
6. OTROS GRÁFICOS DE CONTROL
UNIVARIANTES.
Contenido del tema: Introducción. Gráficos de Medias individuales. Gráficos
CUSUM. Gráficos de control de Medias ponderadas (EWMA).
6.1. Introducción
En este tema se analizarán otras alternativas a los clásicos gráficos de con-
trol de Shewhart. Aunque este tipo de gráficos son los más ampliamente uti-
lizados, y siguen a ser de gran utilidad, en los últimos años, auspiciados en
gran medida por el avanza en la informática, han aparecido otros gráficos que
presentan alternativas de mejora.
Entre los inconvenientes de los gráficos propuestos por Walter Shewhart
para el control de procesos está el que usan sólo la información contenida en
la última muestra para la toma de decisiones e ignaran toda la información
de los puntos anteriores. Esta información acumulada es de gran importancia
en lo que podríamos denominar la segunda fase de un proceso de control: la
monotorización. Así en este caso deben de utilizarse toda la información posible
proporcionada por los datos o incluso otros criterios de alarma como considerar
límites de aviso a distancias menores al 3 clásico.
La idea de los gráficos de control que se presentan en este tema es que la
representación gráfica no se basa en las observaciones individuales, o promedios
de una muestra de ellas, sino en la acumulación de la información. Por esta
razón se les denomina también gráficos con memoria.
Entre las alternativas a los gráficos de medias y atributos analizados en
temas anteriores se presentará en este, los gráficos para medias individuales,
los gráficos de sumas acumuladas o gráficos CUSUM y los gráficos con medias
ponderadas exponencialmente o gráficos EWMA. Finalmente se abordará el
problema de cómo monotorizar el proceso de control, para detectar señales de
alarma cuando ya están construídos los límites correspondientes.
OTROS GRÁFICOS DE CONTROL UNIVARIANTES. 115
6.2. Gráficos de control para medias individuales
Cuando se tiene que el tamaño muestral es uno, no se puede calcular los
gráficos de medias vistos anteriormente. Este tipo de situaciones suele darse en
la industria química en la que no tiene sentido tomar muestras de una misma
mezcla ya que la variabilidad encontrada será producto del mecanismo usado
para la medida y no de la característica analizada. Por ejemplo, en el caso
de analizar muestras de licores de un mismo tanque de producción no tiene
sentido seleccionar más una muestra de cada recipiente. El problema en este
tipo de estudio estriba en estimar la varianza, para ello pueden emplearse dos
métodos: el de rangos móviles o la agrupación por bloques.
El método de rangos móviles consiste en agrupar medias individuales
consecutivas con intención de formar una submuestras que permita estimar los
rangos. Una vez creado el primer grupo, se irán agrupando sucesivamente la
muestras incorporando la nueva observación y eliminando la primera de cada
muestra.
Por otra parte, cuando exista alguna razón que pueda justifiacar la agru-
pación de los datos en bloques puede recurrirse a formar los grupos con estos
datos. Por ejemplo, en una fábrica de cerveza en la que se tienen dos tanques
podría agruparse la produción diaria en 2 bloques formados por la produción
diaria en cada tanque.
Para estimar los límites de control en este caso se procede como con el
gráfico de la media pero tomando el tamaño de submuestras igual a 1. Sigue
utilizándose la misma nomenclatura para el cálculo del estimador de la media,
, en el caso de utilizar gráficos probabilísticos quedarían los límites de control
± 2
La estimación de puede hacerse utilizando la media de las desviaciones
típicas la media de los rangos , o la media de las cuasidesviaciones −1 :
± 2
2
± 2
2
± 2
−14
En el supuesto más clásico de usar criterios 3 suele utilizarse unas con-
stantes (1 2 y 3), resultando las fórmulas para gráficos individuales:
±1
±2
±3−1
116 OTROS GRÁFICOS DE CONTROL UNIVARIANTES.
Al igual que ocurría en los gráficos de variables también en el caso de
medidas individuales debe hacerse el gráfico para las desviaciones o recorridos,
con objeto de controlar la variabilidad de los datos y no sólo el valor nominal.
Ejemplo: Una destilería envasa diariamente el aguardiente producido en
dos tanques. Se está interesado en controlar el grado de alcohol del aguardiente
elaborado para lo que se recogen los resultados de los análisis durante 10 días
consecutivos resultando los datos de la siguiente tabla:
día tanque 1 tanque 2 Rango (orden 2)
1 44,497 43,982 0,515
2 44,354 44,032 0,322
3 44,523 44,127 0,396
4 44,12 44,089 0,031
5 43,576 43,767 0,191
6 44,546 43,451 1,095
7 43,221 44,448 1,227
8 44,549 43,546 1,003
9 43,337 43,539 0,202
10 43,486 43,9 0,414
44,0209 43,8881 0,5396
43,9545
En este caso la media de todos los datos resulta = 439545 se ha utilizado
la agrupación por bloques, producción de un mismo día, el estimador de la
desviación típica utilizando el rango medio resulta:
b =
22=05396
1128= 0478 37
Los límites de control para este gráfico quedan:
±22 = 439545± 266 (05396) = 439545− 266 (05396) = 42 519 = 439545 + 266 (05396) = 45 390
El correspondiente gráfico para los recorridos se calcularía:
= 05396
= 32 = 0 (05396) = 0
= 42 = 3267 (05396) = 1 762 9
Si en vez de usar el método de agrupación por bloques utilizaramos medias
móviles de orden 3, se agruparán los datos en grupos de forma que el primero
esté constituído por las 3 primeras mediciones, el segundo se forma añadiendo
la cuarta medición y eliminando la primera, procediendo de este modo hasta
completar todas las posibilidades, como aparece en la siguiente tabla:
GRÁFICOS DE CONTROL PARA MEDIAS INDIVIDUALES 117
x1 x2 x3 Rango (orden 3)
44,497 43,982 44,354 0,515
43,982 44,354 44,032 0,372
44,354 44,032 44,523 0,491
44,032 44,523 44,127 0,491
44,523 44,127 44,12 0,403
44,127 44,12 44,089 0,038
44,12 44,089 43,576 0,544
44,089 43,576 43,767 0,513
43,576 43,767 44,546 0,97
43,767 44,546 43,451 1,095
44,546 43,451 43,221 1,325
43,451 43,221 44,448 1,227
43,221 44,448 44,549 1,328
44,448 44,549 43,546 1,003
44,549 43,546 43,337 1,212
43,546 43,337 43,539 0,209
43,337 43,539 43,486 0,202
43,539 43,486 43,9 0,414
El rango medio en este caso (media de los rangos de orden 3) resulta =
06862 el estimador de la desviación típica utilizando el rango medio resulta:
b =
23=06862
1693= 0405 32
Los límites de control para este gráfico quedan:
±23 = 439545± 1772 (06862) = 439545− 1772 (06862) = 42 739 = 439545 + 1772 (06862) = 45 17
El correspondiente gráfico para los recorridos se calcularía:
= 06862
= 33 = 0 (06862) = 0
= 43 = 2575 (06862) = 1 767 0
Si en lugar de usar medias móviles de orden 3 se utilizan médias de orden
2, para lo que se agruparían los datos en submuestras de tamaño 2, primera y
segunda observación, segunda y tercera, y así sucesivamente, los nuevos gráficos
resultarían las siguientes estimaciones:
b =
22=0517211
1128= 0458 52
118 OTROS GRÁFICOS DE CONTROL UNIVARIANTES.
Gráfico X para alcohol
X
CTR = 43,9
UCL = 45,3
LCL = 42,58
1.01.0
1,01,0
1,01,0
1,01,0
1,01,0
2,02,0
2,02,0
2,02,0
2,02,0
2,02,0
42
43
44
45
46
Figura 6-1 Gráfico de medias individuales de orden 2 para el contenido medio de
alcohol.
Los límites de control para este gráfico quedan:
±22 = 439545± 266 (051721) = 439545− 266 (051721) = 42 579 = 439545 + 266 (051721) = 45 33
El correspondiente gráfico para los recorridos se calcularía:
= 051721
= 32 = 0 (051721) = 0
= 42 = 3267 (051721) = 1 689 7
En este caso los gráficos, utilizando el programa Statgraphics, resultan val-
ores similares que pueden verse en las figuras siguientes:
6.3. Gráficos CUSUM
Los gráficos para la media de Shewhart permiten tomar decisiones sobre
si el proceso se encuentra en control o no basándose en los datos de cada
GRÁFICOS CUSUM 119
Gráfico MR(2) para alcohol
MR
(2)
CTR = 0,52
UCL = 1,69
LCL = 0,00
1.01.0
1,01,0
1,01,0
1,01,0
1,02,0
2,02,0
2,02,0
2,02,0
2,02,0
2,0
0
0,3
0,6
0,9
1,2
1,5
1,8
Figura 6-2 Grafico para los rangos de orden 2.
Curva OC para X
41 42 43 44 45 46 47
Media del Proceso
0
0,2
0,4
0,6
0,8
1
Pr(
acep
tar)
Figura 6-3 Curva característica de operación (OC).
120 OTROS GRÁFICOS DE CONTROL UNIVARIANTES.
Curva ARL para X
43 43,4 43,8 44,2 44,6 45
Media del Proceso
0
100
200
300
400
500
Dur
ació
n de
eje
cuci
ón m
edia
Figura 6-4 Curva ARL para el ejemplo del alcohol del aguardiente.
submuestra, no aprovechando toda la información anteroior a una determinada
muestra para la decisión. Como alternativa Page (1954) propuso el denominado
gráfico de sumas acumulativas o gráficos CUSUM (Cumulative Sum) que basan
la decisión de comprobar si el proceso está bajo control o no analizando toda
o la mayor parte de la muestra. Para este fin se usará el estadístico :
=
X=1
( − 0)
Este estadístico tiene en cuenta las primeras submuestras para tomar
la decisión sobre la muestra −ésima. Considerando todos las diferencias decada media muestral () con la media del proceso (0). Si se llama a estas
diferencias = −0 Los gráficos tipo Shewart podrían verse como gráficos
basados en la evolución de estas diferencias . Si ocurriese un desajuste muy
pequeño, la evolución de estas diferencias sería poco eficaz para detectarla.
La idea del gráfico CUSUM es representar las sumas acumuladas de estas
diferencias, es decir los valores: 1 = 1, 2 = 1 + 2, 3 = 1 + 2 +3, ...
De esta fomra en en cada instante se considera también la información
histórica de los valores anteriores. Un desajuste pequeño se irá así acumulando
haciendo más fácil su detección.
El gráfico CUSUM es la representación de las sumas acumuladas de las
desviaciones entre cada dato, en este caso la media muestral (), y un valor de
referencia (0). Bajo supuestos de normalidad es evidente deducir la distribu-
ción del estadístico :
GRÁFICOS CUSUM 121
∈
µ (− 0)
20
¶Cuando sea cierta la hipótesis nula = 0 las sumas acumuladas tendrán
media 0, con lo que es de esperar que oscilen alrededor de la recta = 0. En
cl caso en que la hipótesis no sea cierta los valores graficados de las sumas serán crecientes o decrecientes dependiento del signo de −0 lo que permitirádetectar salidas de control eligiendo convenientemente los límites.
Suelen ser efectivos cuando en un proceso se produce un desajuste muy pe-
queño (entre 05 y 25). Son pues gráficos que se proponen para la detección
de desajustes pequeños y que se basan en la acumulación de la información,
por lo que también se los conoce como gráficos de control con memoria.
Es resaltable que después de la primera propuesta de Page (1954) habría
muchas otras mejoras como las de utilizar una máscarilla en forma de V para
la toma de decisiones propuesta por Barnhard (1959), o las mejoras propuestas
por Evan (1963), Jhonson y Leone (1962) o Goel y Wu (1971).
6.3.1. Construcción del gráfico CUSUM tabular
Los gráficos CUSUM pueden construirse tanto para medidas como para
otros estadísticos, como la proporción de una binomial, la media de una Poisson,
para las varianzas. En este tema supongamos que se desea controlar la evolución
de una variable ˜( ), donde es conocida o se posee una estimación.
El CUSUM algorítmico (o tabular) calcula las desviaciones de cada valor
respecto del valor objetivo o nominal . Se distinguirá entre desviaciones pos-
itivas y negativas, puesto que en muchas situaciones ambas desviaciones no
tienen la misma repercusión.
Es necesario definir un valor a partir del cual se condera que la desviación
acumulada es significativa. Este valor determinara la sensisibilidad del gráfico
de control. Si la suma acumulada hasta la observación −ésima es menor quecierto umbral , se considera que la desviación acumulada es cero. Si el grá-
fico es insensible a desviaciones no significativas, será más fácil visualizar las
desviaciones que sean significativas. La representación grafica será más limpia.
Uniendo esta idea de desviación significativa con las de separación de desvia-
ciones positivas y negativas se tendrán dos tipos de sumas significativas acu-
muladas: + para las desviaciones positivas y − para las negativas. Estas
sumas acumuladas se definen de la siguiente forma:
• + =acumulación de desviaciones positivas significativas:
+ = max{0 +
−1 + ( − )−}De esta forma, si el proceso está bajo control, la variable tomara valores
cercanos al nominal y el termino + tendera a tomar valores nulos.
122 OTROS GRÁFICOS DE CONTROL UNIVARIANTES.
• − =acumulación de desviaciones negativas significativas:
− = mın{0 +−1 − ( − )−}
El valor de se suele elegir en función de la desviación que se quiera
detectar. Supongamos que el valor nominal de la variable de interés es .
Los valores de las sumas acumuladas se han de comparar con el valor max-
imo admisible. Este valor, denominado valor de decision suele ser = ,
donde se recomienda que = 5 y por tanto = 5 (algunos autores también
recomiendan valores de = 4). Los valores ± son los limites de control de
este grafico.
Tras una señal de alarma en el grafico CUSUM se debe buscar la causa
asignable que la originó. Puede suceder que dicha causa exista pero no se
encuentre o que existan varias causas concurrentes y sólo parte de ellas sean
corregidas.
Ejemplo: Con los datos de la resistencia del acero calcular el correspondiente
gráfico cusum tabular.
Mediante el paquete Statgraphics resultará la siguiente construcción para
este gráfico.
Gráfico CuSum para la media
––––-
UCL: +22,5845
Línea central: 0,0
LCL: -22,5845
0 fuera de límites
Gráfico cusum para los Rangos
–––––-
UCL: +49,6723
Línea central: 23,4929
LCL: 0,0
0 fuera de límites
Estimaciones
––––
Media del Proceso = 519,295
Sigma del Proceso = 10,1001
Rango Medio = 23,4929
6.3.2. Construcción del gráfico CUSUM con máscara V
Otra alternativa es la de utilizar una máscarilla en forma de V para la
toma de decisiones (véase Barnhard (1959)). El procedimiento de la máscara
V es el procedimiento más popular de gráfico CUSUM, estando implementado
GRÁFICOS CUSUM 123
Gráfico de Estado CuSum para Resistencia_MPa
0 4 8 12 16 20
Subgrupo
-23
-13
-3
7
17
27
CuS
um
AIM=0,00
H=22,58
K=2,26
K=-2,26
H=-22,58
Figura 6-5 Cusum tabular para la muestra del acero.
en muchos paquetes estadísticos. La máscara V se basa en la representación
grafica del estadístico CUSUM:
=
X=1
( − 0)
Aunque algunos programas informáticos utilizan la estandarización de la
variable de interés:
=
X=1
µ − 0
¶donde 0 es el valor nominal de referencia y la desviación típica (conocida
o estimada) de la variable de interés.
Esta máscara V, se construye mediante el cálculo de un ángulo de amplitud
junto con una línea horizontal. El extremo izquierdo de la línea horizontal
(punto 0) se coloca en una de las observaciones (la que se quiere contrastar),
y en el extremo derecho de dicho segmento horizontal (punto V) se coloca el
vértice del ángulo. En estas plantillas, la distancia OP y el ángulo determinan
la sensibilidad del gráfico de control.
Usualmente la máscara se sitúa sobre el último punto dibujado. Si alguno
de los puntos previamente dibujados es recubierto por la máscara, es que ha
ocurrido un cambio. Los puntos cubiertos por la parte superior de la máscara
indican un decrecimiento en la media del proceso, en tanto que los cubiertos por
la parte inferior de la máscara indican un incremento en la media del proceso.
El primer punto recubierto por la máscara indica, aproximadamente, el tiempo
en el que ocurrió el cambio. Cuando no hay puntos anteriores cubiertos por la
máscara, es que el proceso está en control.
124 OTROS GRÁFICOS DE CONTROL UNIVARIANTES.
Figura 6-6 Construcción de una máscara V.
Muchos paquetes informáticos utilizan el procedimiento de Johnson y Leone
para determinar el ángulo y la distancia (distancia del segmento OP). Estos
parámetros se fijan de la siguiente forma:
=
=2
22
ln
µ1−
2
¶
= arctan
µ
2
¶donde:
depende de la escala del gráfico. Es la distancia horizontal entre puntos
sucesivos del eje de abscisas medida en las unidades del eje de ordenadas.
Si el grafico se realiza con un programa estadístico este parámetro viene ya
predeterminado y no necesita calcularlo el analista.
es la sensibilidad del análisis y es el grado de desajuste que queremos
detectar, en número de desviaciones típicas. Si queremos detectar que la media
aumente de 0 a 1 se tiene que 1 = 0 +
es la probabilidad de una falsa alarma cuando el proceso está bajo control.
es la probabilidad de NO detectar una desviación .
es el promedio de los tamaños muestrales. Si el grafico es de observaciones
individuales = 1
En el Manual de calidad de Juran se presenta una versión simplificada de
este procedimiento, elaborado a partir de una serie de simplificaciones y valores
de parámetros de aplicación frecuente, y cuyos pasos son los siguientes:
1. Obtener una estimación del error estándar del estadístico que se dibuja;
por ejemplo, puede ser obtenido de un grafico de recorridos de otro estimador
apropiado. Si se utiliza un gráfico de recorridos, el estimador es 2√.
GRÁFICOS CUSUM 125
2. Determinar la mínima variación en la media D que se desea poder detec-
tar. Calcular:
=
3. Determinar el nivel de significación al que se desea tomar las decisiones.
Para limites equivalentes a 3, el nivel de significación es = 0 00135.
4. Determinar el factor de escala . Es el factor entre las escalas del eje
vertical (estadístico considerado) respecto al eje horizontal (numeración de las
muestras). Ewan (1963) recomendaba que era conveniente que fuese un valor
comprendido entre y 2 , preferentemente cercano a 2 .
5. Obtener la distancia principal d de la tabla siguiente utilizando el valor
de obtenido en la etapa .
0,2 50’43’ 330,4
0,4 11’19’ 82,6
0,5 14◦00’ 52,9
0,6 16’42’ 36,7
0,8 21’48’ 20,6
1,0 26◦34’ 13,2
1,2 30◦58’ 9,2
1,3 32◦59’ 7,8
1,4 35◦00’ 6,7
1,6 38’40’ 5,2
1,8 41’59’ 4,1
2,0 45◦00’ 3,3
2,2 47◦44’ 2,7
2,4 50’12’ 2,3
2,6 52’26’ 2,0
2,8 54◦28’ 1,7
3,0 56’19’ 1,5
6. Obtener el ángulo de la máscara de la tabla anterior hallando ,
igualando a en la tabla y leyendo . Se debe utilizar interpolación lineal si
fuese necesario.
Utilizar y para construir la máscara en V.
El tamaño de las muestras para el gráfico CUSUM de medias es el mis-
mo que para un gráfico . Sin embargo, Ewan (1963) sugiere, para obtener los
mejores resultados, que se debe utilizar = 2 252 donde es una esti-
mación de la desviación típica del proceso.
En algunos procesos no es conveniente utilizar la máscara V. Se puede
utilizar un método alternativo de tabulación que está muy bien adaptado a
las aplicaciones con ordenador. Es equivalente al método de recorrido con la
máscara.
También suele utilizarse otros procedimientos como el Nomograma de Kemp
para la construcción de la máscara, en este caso se fija el ARL correspondiente
126 OTROS GRÁFICOS DE CONTROL UNIVARIANTES.
a la situación bajo control (es decir para 0) y el ARL que se desea obtener
cuando el proceso está fuera de control y la media es 1 = 0 +
Ewan (1963) compara los gráficos CUSUM y los para distintos cambios en la
media del proceso. Para cambios entre y , el grafico CUSUM detecta el cambio
con menos muestras de las que son necesarias en un grafico de medias . Para
cambios mayores, no presentan ventaja los graficos CUSUM. La conclusion de
Ewan supone que el gráfico sólo utiliza la regla de un punto fuera de los límites
de control.
Si se utilizan otros criterios de existencia de situación de fuera de control
(investigación de tendencias), entonces disminuye la ventaja de los gráficos
CUSUM.
Autores como Montgomery desaconsejan esta forma de implementar el grá-
fico cusum (con máscara V) y prefieren el gráfico asociado al Cusum algorítmi-
co o tabular analizado en la sección anterior. Entre los motivos aluden, entre
otros, a que no está claro cuánto debemos extender hacia atrás los brazos de
la máscara, dificultando la interpretación por partes del usuario.
Ejemplo: Realizar la construcción del gráfico cusum con máscara para el
caso de los datos del acero.
Mediante el uso del paquete Statgraphics resulta:
Gráfico CuSum
––––-
Detectar cambio de 1,0 sigma = 10,1001
alpha = 0,01
beta = 0,01
V-máscara en la muestra 20
Gráfico de Rango
–––––-
UCL: +3,0 sigma = 49,6723
Línea central = 23,4929
LCL: -3,0 sigma = 0,0
0 fuera de límites
Estimaciones
––––
Media del Proceso = 519,295
Sigma del Proceso = 10,1001
Rango Medio = 23,4929
GRÁFICOS CUSUM 127
Gráfico CuSum para Resistencia_MPa
0 4 8 12 16 20 24
Subgrupo
-14
-9
-4
1
6
11
16
CuS
um
Figura 6-7 Gráfico Cusum para con máscara para los datos del acero.
6.4. Gráficos de control de medias móviles pon-
deradas exponencialmente (EWMA)
La salida de un proceso bajo supervisión puede analizarse también medi-
ante la filosofía de las series temporales, pues en el fondo cuando se hacen las
correspondientes gráficas de las submuestras en distintos períodos de tiem-
po, estas constituyen una serie temporal. En este sentido es donde se podría
englobar los gráficos presentados en esta sección.
El gráfico de medias móviles con ponderación exponencial o gráfico EW-
MA (Exponentially Weighted Moving Average), fue introducido primeramente
por Roberts (1959) y luego por Wortham y Ringer (1971), que lo propusieron
para aplicarlo en procesos industriales, en sistemas de control en finanzas y
en dirección, para las que los subgrupos formados por varios elementos no son
aplicables.
Al igual que los gráficos CUSUM, son útiles para detectar pequeños cambios
en la media.
Para este tipo de gráficos se toman normalmente datos individuales. Las
observaciones individuales pueden ser medias (cuando las observaciones indi-
viduales de las que provienen las medias no están disponibles), lecturas indi-
viduales, cocientes, proporciones, o medidas similares.
128 OTROS GRÁFICOS DE CONTROL UNIVARIANTES.
6.4.1. Construcción del gráfico
El estadístico dibujado es la media ponderada de la observación actual y
todas las observaciones precedentes, donde la media previa recibe más peso, es
decir,
= 1 + (1− )−1 0 1
Donde:
0 =
= media móvil ponderada exponencialmente en el tiempo actual .
−1 = media móvil ponderada exponencialmente en el tiempo inmedi-
atamente precedente − 1. = la observación presente.
es el factor de ponderación para la observación actual, 0 ≤ ≤ 1.
Si se cumplen las hipótesis de independencia y estabilidad sobre los xt, se
tiene que:
() =
Y
() = 2(1− )2
2−
Cuando aumenta, el último termino entre paréntesis en la parte derecha
converge rápidamente hacia uno, y la correspondiente expresión para la vari-
anza se transforma en () = 2[(2− )]
Eligiendo = 2( + 1), la expresión aproximada de la varianza se trans-
forma en () ≈ 2 (varianza de medias de muestras de elementos).
Bajo estas condiciones, los límites de control se transforman en b±3q2. Para
otros valores de , los límites de control son:
= b+ 3br
2−
= b− 3br
2−
Para las primeras observaciones, se debe utilizar la primera ecuación para
la varianza. Si no se tiene una buena estimación para , se debe utilizar un
grafico de recorridos y estimar por 2√. En el caso de valores individuales,
GRÁFICOS DE CONTROL DE MEDIAS MÓVILES PONDERADAS EXPONENCIAL-
MENTE (EWMA) 129
el recorrido móvil medio se puede utilizar en la forma en que se hizo para los
gráficos de control de valores individuales.
El gráfico EWMA puede expresarse de la forma general:
=
X=1
(-i+1) +
En donde es el instante actual, es el número de medias consideradas en
cada punto y que se llama orden del gráfico, son los pesos considerados
y es una constante que puede ser nula. Con esta expresión general pueden
obtenerse distintos gráficos:
Si = 1, = 1 y = 0 obtendríamos el gráfico de Shewart para la
media
Si = 1 y = −0 se obtiene el gráfico CUSUM en donde:
=
X=1
(-i+1 − 0) =
X=1
-i+1 − 0
Si =1y = 0 se obtiene el denominado gráfico de Medias Móviles
=1
X=1
-i+1
Si = (1 − )−1 y = (1 − )0 es el gráfico EWMA donde el
estadístico está expresado como:
=
X=1
(1− )−1-i+1 + (1− )0
Al igual que el grafico CUSUM, el grafico EWMA es más efectivo que el
grafico de medias para detectar pequeños cambios en la media; sin embargo,
ambos gráficos funcionan peor que el grafico de medias para grandes cambios.
Para superar esta dificultad, algunos autores han propuesto representar los
limites de Shewhart y los límites EWMA en el mismo gráfico.
Ejemplo: Construir el gráfico EWMA para los datos de resistencia del acero
con = 2.
Gráfico EWMA - Lambda = 0,2
––––
UCL: +3,0 sigma = 523,812
Línea central = 519,295
LCL: -3,0 sigma = 514,778
0 fuera de límites
130 OTROS GRÁFICOS DE CONTROL UNIVARIANTES.
Gráfico EWMA para Resistencia_MPa
0 4 8 12 16 20
Subgrupo
514
516
518
520
522
524
EW
MA
CTR = 519,
UCL = 523,
LCL = 514,7
Figura 6-8 Gráfico EWMA para la resistencia del acero.
Gráfico de Rango
–––––-
UCL: +3,0 sigma = 49,6723
Línea central = 23,4929
LCL: -3,0 sigma = 0,0
0 fuera de límites
Estimaciones
––––
Media del Proceso = 519,295
Sigma del Proceso = 10,1001
Rango Medio = 23,4929
Como se comentó al principio de esta sección se puede realizar el estudio
del proceso mediante la aplicación de la metología de series temporales. Bajo
esta perspectiva puede buscarse encontrarse el mejor modelo para los datos
mediante el uso de la metodología Box-Jenkins de modelos ARIMA, siendo
aplicables la mayoría de estas técnicas en este contexto.
Ejemplo: Analizar mediante un modelo ARIMA los datos del acero.
Gráfico ARIMA
––––-
UCL: +3,0 sigma = 533,628
Línea central = 519,338
LCL: -3,0 sigma = 505,048
0 fuera de límites
Gráfico de Rango
–––––-
UCL: +3,0 sigma = 49,6723
GRÁFICOS DE CONTROL DE MEDIAS MÓVILES PONDERADAS EXPONENCIAL-
MENTE (EWMA) 131
Gráfico ARIMA para Resistencia_MPa
0 4 8 12 16 20
Subgrupo
500
510
520
530
540
X-b
ar
CTR = 519,
UCL = 533,
LCL = 505,0
Figura 6-9 Gráfico ARIMA para los datos de resistencia del acero.
Línea central = 23,4929
LCL: -3,0 sigma = 0,0
0 fuera de límites
Estimaciones
––––
Media del Proceso = 519,338
Sigma del Proceso = 10,651
Rango Medio = 23,4929
Resumen del Modelo ARIMA
Parámetro Estimado Error Estd. t P-Valor
–––––––––––––––––––––––-
AR(1) -0,00091808 0,232564 -0,00394765 0,9969
AR(2) -0,317454 0,232903 -1,36303 0,1907
Media 519,338 0,804927 645,2 0,0000
Constante 684,681
–––––––––––––––––––––––-
Pronóstico hacia atrás: si
Varianza del ruido blanco estimado = 21,0982 con 17 grados de libertad
Desviación típica del Ruido blanco estimado = 4,59327
132 OTROS GRÁFICOS DE CONTROL UNIVARIANTES.
7. GRÁFICOS DE CONTROL MULTI-
VARIANTES.
Contenido del tema: El enfoque multivariante. Control independiente de
las variables. Distribuciones multivariantes. Gráficos T2 de Hotelling. Gráficos
Multivariantes de Sumas acumuladas (MCUSUM). Gráficos Multivariantes de
Medias ponderadas (MEWMA). Anexo.
7.1. Introducción: el enfoque multivariante
En los procesos productivos que se desarrollan en el mundo real, para rea-
lizar un control de la calidad, es muy frecuente que se precise estudiar más
de una variable de manera simultánea. Así, en la fabricación de un automóvil
pueden llegar a medirse y controlarse más de 200000 variables de calidad, en el
caso de un buque o de un avión el número pude pasar fácilmente del millón de
variables. Esta parte del control de la calidad, que tiene por objeto el estudio
conjunto de datos multidimensionales, se conoce como control multivariante.
La mayor parte de las técnicas del control multivariante de procesos han
sido desarrollados a lo largo del siglo XX. Desde los trabajos pineros Harol
Hotelling que estudió las miras de los aviones de combate que intervinieron
en las batallas aéreas de la segunda guerra mundial (1947), hasta las aporta-
ciones de matemáticos como el hindú Mahalanobis entre otros, la mayoría de
las aportaciones tuvieron como hilo conductor crear extensiones de gráficos y
métodos de control del caso univariante al caso multidimensional.
Aunque las aportaciones al control multivariante han ido casi siempre en-
focadas a resolver problemas ligados a la industria, este avance ha sido a la
aparición de nuevos métodos de estadística multivariante, como el análisis de
componentes principales, el análisis discriminante, el análisis factorial o el análi-
sis clúster conjuntamente con la mejora en la potencia de cálculo de los orde-
nadores.
Hoy en día la investigación sobre técnicas de control multivariante está
experimentando cierto cambio al dirigirse, cada vez más, a procedimientos grá-
ficos, que permitan resumir, de forma visual, grandes cantidades de datos,
así como hacia el estudio de modelos multivariantes no paramétricos o semi-
paramétricos, en los que muchas de las hipótesis sobre las distribuciones, im-
puestas por los modelos clásicos del control multivariante, se pueden relajar
notablemente. En este sentido se analizarán las aportaciones de Regina Liu
de los denominados gráficos DDChart, que son gráficos de control de tipo no
GRÁFICOS DE CONTROL MULTIVARIANTES. 133
paramétrico, basados en el concepto de profundidad de datos.
7.2. Control independiente de las variables
En principio, la idea que puede surgir, partiendo de la teoría desarrollada
en los temas anteriores, es el desarrollo de gráficas de control univariantes para
controlar el estado de cada una de las características de calidad observadas
de forma independiente. Es decir, si queremos controlar variables realizar
controles individuales. Esta idea resulta engañosa, pues normalmente las vari-
ables de un proceso complejo suelen estar muy relacionadas entre si y con este
procedimiento se perdería el estudio de las correlaciones latentes del proceso.
Desde el punto de vista probabilístico es evidente que si observamos vari-
ables, podemos construir y gráficas de control. De este modo se estaría
ignorando el efecto de las interacciones entre las diferentes variables. Esto es,
se estaría obviando la información aportada a través de las covarianzas.
En el caso más simple de controlar dos variables de un proceso, por ejemplo
podría interesar controlar la resistencia y la elasticidad de un material, si estas
variables las denotamos por (1 2) podrían construirse los correspondientes
límites para cada una de estas variables y de forma natural obtener un límite
conjunto dado por el rectángulo de intersección de ambos límites de control.
Esta forma de proceder llevaría a una acumulación del error de tipo I muy
considerable. Si se supone que la probabilidad de que ambas variables excedan
los límites de control es de 00027, la probabilidad conjunta de que ambas
variables excedan los límites de control será de (00027) (00027) = 000000729
mucho menor que 00027
Este fenómeno es más apreciable analizando el suceso contrario de que am-
bas variables estén entre los límites de control pues se pasaría, por la misma
razón, de 09973 a 09946, y esto sólo en el caso de tener una variable bidimen-
sional. Esta probabilidad irá disminuyendo en función del número de variables
a controlar. Así, si se tiene 10 características de un mismo producto, la prob-
abilidad de que las 10 se encuentren bajo control sería de 0997310 = 0973 33
lo que supone una pésima calidad del producto final. En general, si se tiene
un vector de características con una de ellas independiente de las otras y se
supone una probabilidad de error de tipo I La probabilidad resultante del
error de tipo I para las p características será: 1−(1−) Siendo la probabilidadde que las p características estén simultáneamente entre los límites de control
de (1− ) Por otra parte, en el caso de que las variables no fuesen indepen-
dientes, situación bastante frecuente en la realidad, no existe una fórmula tan
sencilla para medir la probabilidad conjunta.
Una primera alternativa a los límites de control independientes es realizar
una corrección en el nivel de significación con objeto de disminuir las falsas
alarmas puede resolverse mediante el uso de gráficos univariantes con límites
134 GRÁFICOS DE CONTROL MULTIVARIANTES.
LCI x1
LCI x2 LCS x1
LCS x1
X1
X2
Figura 7-1 Zona de control utilizando límites de control independientes.
de control tipo Bonferroni, propuesta por Alt (1985).
La propuesta consiste en corregir las probabilidades de error de tipo I en
función del número de variables independientes, dividiendo el valor entre el
número de variables, quedando los límites de la siguiente forma:
= − 2
√
=
= + 2
√
Existen otras alternativas en la línea de hacer correcciones como la de Bon-
ferroni, pero serán los métodos basados en utilizar la estructura de correlación
de los datos los que aporten soluciones al estudio multivariante. Para su estudio
se analizará someramente conceptos básicos de las variables multidimension-
ales.
7.3. Variable aleatoria p-dimensional
Como se comentó supondremos que estamos interesados en controlar un
vector de p componentes, que desde el punto de vista estadístico se denomi-
VARIABLE ALEATORIA P-DIMENSIONAL 135
naría variable aleatoria -dimensional, o vector aleatorio, y se podría denotar
por = (12 ), y sería un conjunto de variables aleatorias unidi-
mensionales definidas sobre el mismo espacio de probabilidad. Estas variables
podrán medir datos de tipo discreto o de tipo continuo, e incluso con frecuencia
tener unas componentes discretas y otras continuas.
De forma natural se extiende los conceptos da esperanza del vector aleatorio, también llamada vector de medias o centro de gravedad de la distribución,
como el vector formado por las medias individuales
³´=
⎛⎜⎝ (1)...
()
⎞⎟⎠ =
⎛⎜⎝ 1...
⎞⎟⎠ =
La extensión del concepto de varianza de una variable aleatoria real al caso
multidimensional se lleva a cabo mediante la llamada matriz de varianzas-
covarianzas, definida por
Cov³´= Σ = () =
⎛⎜⎜⎜⎝11 12 · · · 121 22 · · · 2...
.... . .
...
1 2 · · ·
⎞⎟⎟⎟⎠ =
µ³ −
´³ −
´¶
o, lo que es lo mismo,
= Cov () = ¡( − )
¡ −
¢¢
En particular, la matriz Σ es simétrica, en su diagonal aparecen las varianzas
de las variables y fuera de ella las covarianzas entre cada par de variables. Tam-
bién puede comprobarse que la matriz de varianzas-covarianzas es semidefinida
positiva. El determinante de Σ (que, por lo visto en la sección anterior, coin-
cide con el producto de todos sus autovalores, que son positivos) es la llamada
varianza generalizada de la variable multidimensional, pues conserva algunas
de las propiedades de la varianza de una sola variable y mide la dispersión
conjunta del vector de variables aleatorias.
Puede obtenerse fácilmente la siguiente fórmula para el cálculo abreviado
de la matriz de varianzas-covarianzas:
Cov³´=
³
´− .
Con el objeto de hacer de la matriz de varianzas-covarianzas una medida
adimensional de la relación entre las variables componentes del vector aleato-
rio surge la matriz de correlaciones, que es la formada por los coeficientes de
correlación lineal,
=
siendo 2 = . Esto da lugar a una matriz × =¡¢, con unos en la
diagonal y elementos comprendidos entre−1 y 1 fuera de ella (los coeficientes de
136 GRÁFICOS DE CONTROL MULTIVARIANTES.
correlación de unas variables con otras). La matriz de correlaciones de un vector
aleatorio coincide con la matriz de covarianzas de un vector transformado
de , dado por = ·³ −
´, con
=
⎛⎜⎜⎜⎝−11 0 · · · 0
0 −12 · · · 0...
.... . .
...
0 0 · · · −1
⎞⎟⎟⎟⎠
es decir, del vector de variables estandarizadas,
=
⎛⎜⎜⎜⎝12...
⎞⎟⎟⎟⎠ , dado por = −
.
De hecho, como consecuencia de esto, la matriz de correlaciones también es
simétrica y semidefinida positiva.
Si las componentes de un vector de variables aleatorias son independientes
sus covarianzas son cero (y por lo tanto sus correlaciones también). Lo con-
trario, en general, no es cierto. Así, dos variables aleatorias pueden tener co-
varianza cero sin ser independientes.
7.3.1. Estimación del vector de medias y de la matriz de varianzas-covarianzas
A la hora de estimar cantidades como las anteriormente mencionadas (el
vector de medias, la matriz de varianzas-covarianzas o la de correlaciones, por
ejemplo) se puede proceder de forma análoga a lo ya conocido para variables
aleatorias unidimensionales. Supongamos que se dispone de una muestra de
datos correspondientes a la observación -ésima ( = 1 2 ) de la
−ésima característica de calidad ( = 1 2 ) en la k-ésima muestra ( =1 2 ), que pueden estructurarse mediante la matriz. El vector de medias
poblacional, , puede estimarse mediante el llamado vector de medias muestral
dado por
=1
X=1
2 =1
− 1X=1
( − ) ,
La matriz de varianzas-covarianzas poblacional puede estimarse también
mediante su análoga muestral al igual que el vector de medias. Así dadas las
VARIABLE ALEATORIA P-DIMENSIONAL 137
covarianzas entre la característica de calidad −ésima y la característica decalidad −ésima para la −ésima muestra podrá estimarse mediante la expre-sión:
=1
− 1X=1
( − ) ( − ) , = 1 2 ; 6=
se podrán definir los siguientes estimadores:
=1
X=1
= 1 2
2 =1
X=1
2 = 1 2
=1
X=1
6=
Estos cálculos pueden reescribirse en forma matricial:
x =
⎛⎜⎝ 1...
⎞⎟⎠
S =
⎛⎜⎜⎜⎝21 12 13 · · · 1
22 23 · · · 2
23. . .
...
2
⎞⎟⎟⎟⎠
Estas estimaciones del vector de medias y de las matrices de varianzas-covarianzas
son el punto de partida de muchas de las técnicas del control estadístico mul-
tivariante.
7.3.2. La distribución normal multidimensional
Sin duda la distribución multivariante más utilizada (como ya ocurría tam-
bién en el caso univariante) es la normal multidimensional. Se trata de una
distribución continua, que se denota por (Σ) , cuya densidad viene dada
por
() = (2)−2
det (Σ)−12
exp
∙−12(− )
Σ−1 (− )
¸
siendo un vector de componentes y Σ una matriz de dimensión × ,
simétrica y definida positiva. Puede probarse que resulta ser el vector medias
de esta distribución y que Σ es la matriz de varianzas-covarianzas de la misma.
138 GRÁFICOS DE CONTROL MULTIVARIANTES.
7.4. La T2 de Hotelling
Hotelling desarrolló el estadístico denominado 2 y su extensión a los grá-
ficos de control, como se comentó en la introducción esta distribución permite
analizar variables multidimensionales en las que exista dependencia entre ellas.
Aunque la distribución fue presentada en un artículo en 1947 y empleada en
el problema de calibrar las miras de los aviones de combate en esa época de
guerra mundial, este procedimiento permaneció en un segundo plano hasta que
en los años sesenta, los avances en el mundo de la informática hicieron que se
recuperara el interés por el control estadístico multivariante.
Al igual que en el caso univariante habrá que separar el caso de subgrupos
racionales del caso de muestras de un solo elemento. En primer lugar se analiza
el caso de subgrupos.
7.4.1. Caso bidimensional
En el caso más simple, aunque bastante frecuente, de suponer una variable
bidimensional = (12) con medias, varianzas y covarianzas como las
denotadas en el apartado anterior, la distribución del estadístico:
2 =2
2122 − 212
∙22
³1 −1
´2+ 21
³2 −2
´2− 212
³1 −1
´³2 −2
´¸(7.1)
se distirbuye siguiendo una 2 con 2 y − 1 grados de libertad. Parala toma de decisiones se estimarán los valores del estadístico mediante los
correspondientes valores muestrales (denotaremos el valor estimado para una
muestra como³c 2´ y se buscará el correspondiente -valor en la tabla 22−1
disponible en tablas que aparecen en la mayoría de los textos sobre control de
calidad e incluidas en los paquetes informáticos necesarios para estos cálculos.
En el caso de un nivel de significación (o probabilidad de error de tipo I) se
rechazará el test de que no está bajo control, es decir en el caso bidimensional
equivale a que al menos una de las dos características de calidad está fuera de
control, siempre que
c 2 22−1
Es posible representar el estadístico de Hotelling mediante un gráfico, de-
nominado gráfico de control 2 En el supuesto de independencia entre las
variables (12 = 0) el estadístico definirá una elipse en el plano, cuyo centro
será el vector de medias,³1 2
´, y cuyos ejes serán paralelos a los ejes de-
terminados por 1 y 2 Esta región elíptica hará el papel a los ejes de control
LA T2 DE HOTELLING 139
de Shewhart, es decir, cuando la representación de los pares de valores de la
variable estén dentro de la elipse el proceso se puede considerar bajo control,
mientras que la aparición de un par fuera de la elipse denota un punto fuera
de control estadístico, lo que Shewhart denominó una causa atribuible. En el
supuesto de dependencia entre las variables la representación del estadístico
tendrá también forma elíptica aunque los ejes de esta elipse no serán paralelos
a las correspondientes rectas definidas por las medias de cada variable como
en el caso de independencia.
Este gráfico o elipse de control permite el control simultáneo de una serie de
características, pero presenta sin embargo una serie de limitaciones. La primera
limitación es que aunque se puede reflejar con fiabilidad una situación de no
control, no tiene la capacidad de detectar cuál es la característica responsable
de tal situación, ya que se pierde la secuencia en el tiempo que se tiene en otros
gráficos como los univariantes de Shewhart.
Otro inconveniente de la elipse de control es no es posible representar la
elipse en el caso de disponer de un vector con más de dos variables, para
el caso de tres variables sería posible representar un elipsoide, aunque poco
aclaratorio para la toma de decisiones, pero en el caso de dimensiones mayores
estas representaciones gráficas ya no podrían hacerse.
Como solución a los problemas que presenta el control mediante el gráfico
elíptico, Hotelling propone hacer un gráfico similar a los gráficos univariantes,
en el que se represente como límite de control superior el valor correspondiente
22−1 y se vayan graficando los valores muestrales con la misma secuenciade tiempo de las muestras elegidas, de forma que también permitirá detectar
patrones no aleatorios. Este gráfico, denominado diagrama de control 2 de
Hotelling tiene además la ventaja de que para detectar un valor de fuera de
control se precisa un sólo número (el valor 22−1) lo que facilitará su extensióna variables con más de dos dimensiones como se analizará seguidamente.
7.4.2. Caso multidimensional
Consideremos un proceso de control en el que se observan variables
que se distribuyen según una Normal −variante con un vector de medias0 = (01 02 0) y una matriz Σ0 de varianzas-covarianzas según una
distribución normal multidimensional (0Σ0).
Podemos construir el estadístico:
2 = ¡ − 0
¢Σ−10
¡ − 0
¢que representa la distancia de Mahalanobis entre el vector que representa
la media muestral y el vector que representa la media poblacional.
En el caso univariante se calculaban dos límites de control, pero en el caso
multivariante se calcula un único límite de control superior dado por LCS=2
140 GRÁFICOS DE CONTROL MULTIVARIANTES.
Al igual que en el caso univariante también si puede medir la eficacia del
gráfico de Hotelling mediante el ARL (Average Run Length: número esperado
de muestras tomadas antes de que se produzca una señal de alarma).
El valor del estadístico 2 se estimará mediante los correspondientes valores
muestrales:
2 = ³ −
´−1
³ −
´La distribución que sigue en este caso es la de una de Snedecor con y
(−− + 1) grados de libertad, para un nivel de significación del %.
Al igual que antes, y dado que tanto la distribución 2 y la son asimétricas
con sesgo a la derecha, se va a considerar únicamente la expresión del límite
de control superior, que viene dada por:
=(− 1)(− 1)−− + 1
−−+1
= 0
Alt (1985) recomienda usar estos límites en una primera fase, lo que de-
nomina análisis retrospectivo, para una vez estimado el límite de control por
este medio, calcular un segundo límite para la segunda fase, la de monotor-
ización del proceso, para ello propone un cambio consistente en multiplicar por
la expresión (+1)(−1) obteniendo así una nueva expresión para el límitede control superior .
En el caso de observaciones individuales, es decir = 1, suponiendo que
se tienen un total de m muestras, para evaluar p variables de control, el corre-
spondiente gráfico de control se construirá mediante:
=(+ 1)(− 1)
2 −−
= 0
Además, para procesos en los que el es suficientemente grande, 100,
se puede aproximar estos límites por = 2
Jackson (1991) recomienda que cualquier procedimiento de control de cali-
dad multivariante debe cumplir cuatro condiciones:
Responder de manera inequívoca a la pregunta: ¿el proceso está bajo con-
trol?
Debe establecer una probabilidad para la ocurrencia de una falsa alarma.
Debe tener en cuenta la relación entre las variables.
Debe ser capaz de responder a la pregunta: si el proceso está fuera de
control, ¿qué es lo que pasa?
LA T2 DE HOTELLING 141
El último de los aspectos ha sido una cuestión crucial en la investigación en
los últimos años, aunque como dice Montgomery (2009) es necesario todavía
mucho esfuerzo, tanto en las técnicas gráficas como en las de reducción de
datos.
En el caso de que en un gráfico de control univariante se obtenga una señal
de alarma, el técnico encargado de su interpretación puede encontrar fácilmente
el problema, ya que el gráfico se refiere a una única variable.
En el caso multivariante, la solución no es tan sencilla, puesto que cada
gráfico implica el control de un número ( 1) de variables.
Uso de gráficos de control univariantes
Gráficos de control univariantes con límites de control estándares
El uso de gráficos de control (uno por cada variable estudiada) es una
primera aproximación para intentar saber cuál es la responsable de la
señal de alarma.
Como propuestas alternativas a los gráficos de Hotelling, Hayter y Tsui
(1994) extendieron la idea del uso de los límites tipo Bonferroni, proponiendo
un procedimiento para hallar límites de control simultáneos para cada una de
las medias de las variables.
Mason, Tracy y Young (1995, 1997) proponen descomponer el estadístico 2
en partes independientes, donde cada una de las cuales refleja la contribución
de cada variable individual. El método se ha desarrollado para el caso de obser-
vaciones individuales, pero según los propios autores y haciendo las oportunas
modificaciones, puede aplicarse al caso de datos agrupados. Este método es el
más aceptado para resolver el problema de la identificación de la(s) variable(s)
responsable(s) de la señal de alarma.
Por otra parte, Murphy (1987) utiliza el valor del estadístico 2 para com-
pararlo con otro valor basado en un subconjunto de variables. El punto de
partida para el diagnóstico es la señal de alarma en un gráfico 2.
Otra propuesta es el gráfico de control minimax. Este gráfico fue presentado
por Sepulveda y Nachlas (1997). Recibe este nombre por que controla la máx-
ima media muestral estandarizada y la mínima media muestral estandarizada
de las muestras tomadas de un proceso multivariante. La principal idea que
encierra este gráfico minimax es la estandarización de las medias () y el
control del máximo y del mínimo .
Para ello se tiene que:
= mın() = 1 2 3
= max() = 1 2 3
Los autores hacen también una argumentación sobre las propiedades es-
tadísticas, así como del funcionamiento del ARL.
142 GRÁFICOS DE CONTROL MULTIVARIANTES.
7.5. Componentes principales
Este método fue propuesto por Jackson (1991) y posteriormente revisado
por Pignatello y Runger, Kourti y MacGregor. Una matriz simétrica de orden
p x p, singular, como la matriz de varianzas - covarianzas Σ, puede reducirse
a una forma diagonal L mediante la pre y postmultiplicación por una matriz
ortogonal de modo que Σ = .
Los elementos diagonales de : 1 2 son las raíces características o
autovalores de Σ. Las columnas de son los autovectores de Σ.
La idea del método de componentes principales es transformar variables
correladas () en otras incorreladas (). La mayor ventaja de este método es
la reducción de la dimensionalidad. Como generalmente las dos o tres primeras
variables explican la variabilidad de un proceso, pueden usarse para la inter-
pretación de las señales de alarma, en vez de todo el conjunto de variables.
1 = 111 + 122 + · · ·+ 1
2 = 211 + 222 + · · ·+ 2...
= 11 + 22 + · · ·+
Existen varias variantes de este método, así la denominada .aproximación
de Jackson"propone que esas k primeras componentes principales pueden ser
interpretados físicamente. Esta manera de proceder transforma y considera las
variables como un conjunto de atributos, y por tanto el descubrimiento de la
causa que origina la alarma necesita de un profundo conocimiento del proceso
por parte del analista.
Otra alternativa es la .aproximación de Kourti y MacGregor.estos autores
proponen que el estadístico 2 se representa mediante las puntuaciones es-
tandarizadas de los componentes principales. Cuando se produce una alarma,
se detectan las puntuaciones normalizadas con los valores más altos, y usan
los gráficos de contribución para detectar cuáles son las variables responsables
de la señal. Los gráficos de contribución indican el modo en que cada vari-
able usada para el cálculo de la puntuación contribuye a ella. Los gráficos de
contribución han sido estudiados en detalle por Wasterhuis et al. (2000).
7.6. Gráficos MCUSUM
Los gráficos CUSUM pueden extenderse también al caso multivariante,
aunque no hay una única forma de hacerlo.
COMPONENTES PRINCIPALES 143
Los primeros en realizar estudios en la materia fueron Woodall y Ncube
(1985), usando un esquema basado en múltiples () CUSUM univariantes.
Healy (1987) desarrolló un modelo de gráfico CUSUM multivariante medi-
ante:
= max©¡−1 + ( − 0)− 051
¢ 0ª
Donde:
0: Vector de medias cuando el proceso está bajo control
Σ0: Matriz de varianzas-covarianzas bajo control
1: Vector de medias cuando el proceso no está bajo control
1: Raíz cuadrada del parámetro de descentrado
= 1 = (1 − 0)Σ−10
Para interpretar el gráfico se considera que se produce una señal de alarma
cuando supera un cierto valor de referencia , convenientemente elegido y
que se encuentra tabulado.
Hawkins (1991) desarrolla un modelo para variables ajustadas mediante
regresión multivariante, en base a la suposición de que cuando se produce un
cambio en la media, se produce de una determinada manera. Concretamente
se asume que el cambio se debe a una variación de magnitud en la media de
una de las variables.
Otras propuesta de gráficos MCUSUM son los de Croisier (1988) o los de
Pignatiello y Runger (1990). En cualquier caso este tipo de gráficos están imple-
mentados en paquetes como el R y se recomienta su empleo por la complejidad
de los cálculos.
7.7. Gráficos MEWMA
El gráfico de medias móviles ponderadas exponencialmente para el caso
multivariante (MEWMA) es una extensión a esta nueva situación del corre-
spondiente gráfico univariante.
La extensión multivariante, propuesta por Lowry (1992), adopta la forma:
= Λ + ( − Λ)−1
donde:
: Vector de medias muestrales.
Λ: Matriz diagonal formada por los valores para las distintas variables.
: Matriz identidad.
Como valor inicial se toma 0 = 0.
La información que proporcionan los se recoge en el estadístico:
2 = Σ−1
144 GRÁFICOS DE CONTROL MULTIVARIANTES.
Muestra Resistencia a la tensión (X1) Diámetro (X2)
1 76 78 73 72 73 4,4 4,2 4,2 4,4 4,3 2 69 69 80 78 73 4,6 4,6 3,6 3,6 3,7 3 71 72 76 76 70 4,6 4,5 4,2 5 4,8 4 76 78 80 83 79 4,1 3,1 2,9 3,9 3,8 5 83 76 78 71 74 4,0 3,2 3,4 4,4 5,0 6 72 69 77 78 71 3,7 4,2 4,9 3,9 4,4 7 78 77 76 81 76 4,9 4,1 4,4 3,8 5,1 8 78 82 85 83 77 4,8 4,9 5,2 4,3 4,5 9 80 80 77 82 80 4,2 4,6 5,0 4,7 4,3 10 82 93 82 90 84 4,4 3,8 4,0 4,8 4,6 11 90 79 79 80 83 3,8 4,2 4,0 4,1 4,4 12 81 80 80 83 80 4,1 3,9 4,0 4,2 4,1 13 78 78 78 85 82 3,8 4,6 4,2 3,8 4,2 14 80 81 80 78 85 4,2 3,7 4,0 4,9 3,6 15 81 83 86 82 76 3,4 4,0 4,6 4,3 4,3 16 78 78 78 73 77 4,2 4,2 4,2 4,1 4,1 17 74 79 79 80 69 4,2 4,3 4,2 4,4 5,1 18 73 72 78 83 79 5,4 5,0 5,2 4,1 4,3 19 78 82 81 80 82 4,1 3,8 4,5 5,6 4,1 20 90 82 82 81 93 4,2 4,8 4,4 5,1 5,0
Figura 7-2 Datos de Duncan.
Donde Σ−1 es la inversa matriz de varianzas-covarianzas de los . Esta
matriz puede obtenerse a partir de los elementos de la matriz de varianzas-
covarianzas correspondiente a las variables analizadas mediante la expresión:
Σ =
2−
h1− (1− )
2iΣ
donde Σ es la matriz de varianzas-covarianzas original.
En lo que respecta al límite de control (superior) empleado, Runger y Prab-
hu (1996) sugieren una aproximación mediante cadenas de Markov, que permite
estudiar el funcionamiento del gráfico referente al ARL. Proporcionan además
una serie de recomendaciones para la selección de los parámetros del gráfico.
Ejemplo: Para ilustrar la construcción y uso de las técnicas de control es-
tadístico multivariante que se han expuesto, se van a utilizar datos procedentes
del libro de Ducan “Control de calidad y estadística industrial”, página 799,
referidos a la resistencia a la tensión de una serie de fibras de algodón, junto
con el diámetro de las mismas. Este tipo de ejemplos son clásicos en los man-
uales de control estadístico de la calidad, ya que ilustran bien los problemas
que pueden surgir en la interpretación de este tipo de gráficos de control y que,
como ya se ha expuesto, motivan en parte su falta de aplicación generalizada
en procesos industriales.
Se dispone de los valores de cien observaciones organizados en muestras de
tamaño cinco, que se exponen en la tabla siguiente:
El primer gráfico que se construye es el gráfico de control 2 de Hotelling.
Para su construcción se calculan dentro de cada muestra, las dos medias (1
y 2), las dos cuasi-varianzas (21 y
22) y la cuasi-covarianza (
212), tal como se
recoge en la tabla siguiente, y a partir de ellos, se calculan las medias para las
20 muestras, expresadas en la última fila de la tabla.
GRÁFICOS MEWMA 145
Muestra ??Ħ?? ??Ħ?? ?????? ????
?? ?????? T2
1 74,40 4,30 6,30 0,01 -0,08 8,29
2 73,80 4,02 25,70 0,28 -2,42 15,89
3 73,00 4,62 8,00 0,09 -0,12 13,39
4 79,20 3,56 6,70 0,28 -0,12 14,73
5 76,40 4,00 20,30 0,54 -1,30 6,49
6 73,40 4,22 15,30 0,22 0,34 13,57
7 77,60 4,46 4,30 0,29 -0,69 1,01
8 81,00 4,74 11,50 0,12 0,48 9,97
9 79,80 4,56 3,20 0,10 -0,26 3,07
10 86,20 4,32 25,20 0,17 -0,33 23,71
11 82,20 4,10 21,70 0,05 -0,53 4,47
12 80,80 4,06 1,70 0,01 0,12 2,17
13 80,20 4,12 10,20 0,11 -0,48 1,12
14 80,80 4,08 6,70 0,27 -1,10 2,01
15 81,60 4,12 13,30 0,21 0,36 3,06
16 76,80 4,16 4,70 0,00 0,09 2,83
17 76,20 4,44 21,70 0,14 -1,36 2,73
18 77,00 4,80 20,50 0,33 -2,05 6,82
19 80,60 4,42 2,80 0,50 -0,29 2,33
20 85,60 4,70 30,30 0,15 -0,27 30,52
Promedio 78,83 4,29 13,01 0,19 -0,50
Figura 7-3 Cálculos para el gráfico de Hotelling.
Con estos datos y aplicando en cada muestra la expresión:
2 =2
2122 − 212
∙22
³1 −1
´2+ 21
³2 −2
´2− 212
³1 −1
´³2 −2
´¸se obtienen los correspondientes valores del estadístico 2 de Hotelling, que
se recogen en la última columna de la siguiente tabla:
Para la construcción del límite de control se considera un valor de = 0005,
y aplicando la fórmula correspondiente se tiene:
=2(20− 1)(5− 1)20(5)− 20− 2 + 10005220(5)−20−2+1 = 109095
Una vez que se dispone de los valores para el límite de control y del estadís-
tico 2 para cada muestra, el gráfico de control es el siguiente:
Puede verse que hay un número importante (seis) de muestras que están
fuera del límite de control (2, 3, 4, 6, 10, 20), así que se procede a su inter-
pretación, y que es el apartado que suele plantear mayores problemas a la hora
de usar este tipo de gráficos.
La primera idea que puede surgir, y dado que el estudio está limitado a dos
variables, es la de construir el gráfico de control para las medias para cada una
de ellas.
Así, los parámetros característicos son para la variable 1:
= 836551
= 788300
= 740049
146 GRÁFICOS DE CONTROL MULTIVARIANTES.
Figura 7-4 Gráfico de Hotteling para los datos de Duncan.
Y para la otra variable X2:
= 48629
= 42900
= 37170
Figura 5.3: Gráfico de control para la variable X2
Puede verse que hay cinco puntos (2, 3, 6, 10 y 20) fuera de los límites en
el gráfico para 1 y uno (4) en el caso de 2.
Esto también podría haberse hecho, aprovechando el hecho de que las vari-
ables involucradas son dos, representando simultáneamente las observaciones
junto con los límites en un mismo gráfico:
En principio puede decirse que las alarmas en las observaciones 2, 3, 6, 10
y 20 se deben a variaciones en la variable 1 y la alarma en la observación 4
se debe a un cambio en la variable 2.
Pero dado que este tipo de gráficos no tienen en cuenta las correlaciones
entre variable, se emplean los gráficos para cada variable, pero con límites de
control tipo Bonferroni, cuyas expresiones han sido presentadas con anteriori-
dad.
En este caso el intervalo de control es más amplio, lo que hace que la
observación 2 no constituya una alarma, quedando las observaciones 3 y 6 muy
cerca del límite de control inferior, lo que podría hacer pensar que se tratara
en realidad de falsas alarmas.
En el caso de la variable 2 la situación no cambia y la observación 4 sigue
siendo muna clara señal de alarma.
GRÁFICOS MEWMA 147
Figura 7-5 Gráfico de control de Shewhart para la variable 1
Figura 7-6 Gráfico de control de Shewhart para la variable 2
148 GRÁFICOS DE CONTROL MULTIVARIANTES.
Figura 7-7 Gráfico conjunto de las dos variables.
Figura 7-8 Gráfico de control para la variable 1 con límites tipo Bonferroni.
GRÁFICOS MEWMA 149
Figura 7-9 Gráfico de control para la variable 2 con límites tipo Bonferroni.
Si lo que se quiere es detectar pequeñas variaciones en la media hay que re-
currir a la versión multivariante del gráfico EWMA, conocido como MEWMA.
Aplicando a cada muestra las expresiones expuestas anteriormente se ob-
tienen los valores de Estadístico T2 correspondiente.
En lo que se refiere al parámetro , Montgomery (1991) recomienda que
su valor está comprendido entre 0.05 y 0.25. Cuanto mayor sea el valor del
parámetro, menor importancia se le estará dando a los valores más alejados en
el tiempo. En la tabla el parámetro se elige 0.1, que es utilizado frecuente-
mente en aplicaciones prácticas.
En lo que respecta al límite de control, teniendo en cuenta que = 2, se
obtiene = 864.
En la correspondiente representación puede verse que el gráfico lanza una
señal de alarma en la observación 6, lo que corresponde con una de las señales
obtenidas del gráfico 2, pero que en los estudios previos planteaba ciertas
dudas.
La conclusión anterior también puede confirmarse desarrollando los gráficos
univariantes para cada una de las variables X1 y X2, que a continuación se
presentan y en los que puede verse que el proceso está bajo control para ambas.
Una recomendación para la mejora del comportamiento de los gráficos EW-
MA ante desviaciones muy pequeñas (hasta 1), es la utilización de un valor del
parámetro en la expresión de los límites de control. En el gráfico se presenta
la situación con = 26
El gráfico sigue mostrando que el proceso está bajo control, pero las obser-
vaciones 3 y 6 se acercan al límite inferior, mereciendo especial atención.
Por último se aplica el gráfico CUSUM a los valores del estadístico T2
obtenidos para la construcción del gráfico T2.
150 GRÁFICOS DE CONTROL MULTIVARIANTES.
Muestra ??Ħ???? ??Ħ???? ?????? ?????? T2
1 74,40 4,30 -0,4430 0,0010 1,65708
2 73,80 4,02 -0,9017 -0,0261 4,62638
3 73,00 4,62 -1,3945 0,0095 6,51837
4 79,20 3,56 -1,2181 -0,0644 6,17769
5 76,40 4,00 -1,3393 -0,0870 7,23486
6 73,40 4,22 -1,7483 -0,0853 9,76018
7 77,60 4,46 -1,6965 -0,0598 7,66323
8 81,00 4,74 -1,3099 -0,0088 3,54628
9 79,80 4,56 -1,0819 0,0191 2,07746
10 86,20 4,32 -0,2367 0,0202 0,10832
11 82,20 4,10 0,1240 -0,0008 0,02679
12 80,80 4,06 0,3086 -0,0238 0,16782
13 80,20 4,12 0,4147 -0,0384 0,32701
14 80,80 4,08 0,5703 -0,0555 0,63073
15 81,60 4,12 0,7902 -0,0670 1,10441
16 76,80 4,16 0,5082 -0,0733 0,71585
17 76,20 4,44 0,1944 -0,0510 0,26836
18 77,00 4,80 -0,0081 0,0051 0,00269
19 80,60 4,42 0,1698 0,0176 0,10764
20 85,60 4,70 0,8298 0,0569 1,89317
Figura 7-10 Datos para el gráfico MEWMA.
Figura 7-11 Gráfico de control MEWMA.
GRÁFICOS MEWMA 151
Figura 7-12 Gráfico EWMA para la variable 1
Figura 7-13 Gráfico EWMA para la variable 2
152 GRÁFICOS DE CONTROL MULTIVARIANTES.
Figura 7-14 Gráfico EWMA para la variable 1 con límites modificados.
En la tabla anterior se representan los datos de las acumulaciones de desvia-
ciones significativas tanto positivas como negativas.
Se elige un valor = 1 (pequeñas variaciones en la media) y en consecuencia
el umbral de significación = 2.
Como valor de se elige 4, aunque generalmente se recomienda = 5,
pero dado el número de alarmas que se han producido en el gráfico 2, se opta
por intervalo de control más estrecho. En relación con este tema cabe hacer
mención al trabajo desarrollado por Hawkins y Olwell (1998).
De este modo los límites se sitúan ± 4. La representación es la que sepresenta a continuación.
En ella puede verse que desde el punto de vista de este análisis el proceso
está bajo control, no presentándose ninguna señal de alarma.
7.8. Control-charts de procesosmultivariantes basa-
dos en el concepto de profundidad de datos
Entre los problemas analizados de los gráficos de control multivariantes
podría destacarse que sólo son válidos cuando la variable sigue una distribución
normal multivariante. Además la representación grafica no es posible para 3
y para = 2 el grafico pierde el orden cronológico.
El análisis univariante no tiene en cuenta la correlación y la aproximación
de Bonferroni sobreestima la probabilidad de error de tipo I.
Los gráficos de control de tipo no paramétrico tienen la ventaja que no
CONTROL-CHARTS DE PROCESOS MULTIVARIANTES BASADOS EN EL CON-
CEPTO DE PROFUNDIDAD DE DATOS 153
Muestra ???? ???? ????‐ Muestra ???? ???? ????
‐
1 74,40 -0,4430 0,0010 11 82,20 0,1240 -0,0008
2 73,80 -0,9017 -0,0261 12 80,80 0,3086 -0,0238
3 73,00 -1,3945 0,0095 13 80,20 0,4147 -0,0384
4 79,20 -1,2181 -0,0644 14 80,80 0,5703 -0,0555
5 76,40 -1,3393 -0,0870 15 81,60 0,7902 -0,0670
6 73,40 -1,7483 -0,0853 16 76,80 0,5082 -0,0733
7 77,60 -1,6965 -0,0598 17 76,20 0,1944 -0,0510
8 81,00 -1,3099 -0,0088 18 77,00 -0,0081 0,0051
9 79,80 -1,0819 0,0191 19 80,60 0,1698 0,0176
10 86,20 -0,2367 0,0202 20 85,60 0,8298 0,0569
Figura 7-15 Datos para el gráfico MCUSUM.
Figura 7-16 Gráfico MCUSUM.
154 GRÁFICOS DE CONTROL MULTIVARIANTES.
necesitan las hipótesis básicas y se basan en la filosofía de la estimación no
paramétrica "dejar que los datos hablen por si mismos". En este caso la idea
de construcción está basado en el concepto de profundidad de datos (Liu et al,
2004) Existen también gráficos basados en bootstrap (Liu and Tang, 1996) o
en el anti-rank (Qui and Hawkins, 2001).
7.8.1. Profundidad de datos
La profundidad de datos mide lo central que es un punto respecto al total
de un conjunto de puntos, con respecto a una distribución −dimensional,si es conocida o bien a otra nube de puntos distinta.
Los diferentes tipos de definiciones sobre el concepto de profundidad de
datos, ha ido evolucionando a lo largo del tiempo desde la basada en la distancia
de Mahalanobis (Mahalanobis, 1936) al concepto propuesto por Regina Liu
que se comentó en la sección anterior y que será el que se siga en este apartado
(Simplicial depth (Liu 1990)).
Cuando es conocida, la simplicial depth del punto con respecto a es:
() = { ∈ [1 +1]}Cuando es desconocida, la simplicial depth de con respecto a la nube
de puntos {1 } es:
() =
µ
+ 1
¶−1X∗{∈[1+1]}
Donde * indica que la sumatoria se ejecuta sobre todos los posibles sub-
conjuntos de {1 } de dimension + 1 y [1 +1] es el simplex
cerrado con vértices {1 +1}.Dos propiedades importantes que cumplen estas distancias es que es
invariante afín (las técnicas gráficas no dependa de las coordenadas) y
converge uniformemente y fuertemente a (eso permite utilizar cuando
G es desconocida).
Si para cada y se calcula el estadístico respecto a la nube de puntos, entonces
se puede ordenar la muestra {1 } de la observación más profunda (pun-to más central) con
más grande, a la observación menos profunda (punto
más externo) con más pequeño. La muestra ordenada de esta forma es la
secuencia {[1] []} y a cada observación se puede asignar un rango.El rango para la observación y, si G es desconocida, es dado por
() = # {
() () )1 2 }
Dada una nueva muestra {1 }˜ , se quiere contrastar si las dis-tribuciones son iguales ( = ), en otras palabras si el proceso sigue bajo
CONTROL-CHARTS DE PROCESOS MULTIVARIANTES BASADOS EN EL CON-
CEPTO DE PROFUNDIDAD DE DATOS 155
Figura 7-17 Ejemplo de R.chart.
control. Si G es desconocida se utiliza la función empírica, , de la muestra
de referencia.
Los control charts se suelen utilizar para contrastar las siguientes hipótesis
:
1) 0 : = versus 1 : 6= 2) 0 : Σ = Σ versus 1 : Σ 6= Σ
Tipos de control-charts basados en profundidad de datos (Liu, 1995; Liu et
al„ 2004)
r-charts (análogo univariante: X-charts)
Q-charts (análogo univariante: -charts o Shewhart-charts)
DDMA-charts (análogo univariante: MA-charts)
S-charts (análogo univariante: CUSUM-charts)
7.8.2. r-charts
Estadístico:
() = # {
() () = 1 2 }
El grafico muestra los valores de rangos {(1)
()} frentea instantes de tiempo.
El test asociado se basa en las siguientes hipótesis
0 : =
1: hay una cambio de posición y/o un incremento de escala de hacia
= () = () = 05
156 GRÁFICOS DE CONTROL MULTIVARIANTES.
por qué ∈ [0 1] y → [0 1], para grande
El límite superior no tiene sentido en cuanto los valores más grandes de
indican mayor centralidad del dato en la nube de puntos.
Sin embargo resulta importante notar la cercanía del estadístico al 1. Si los
valores de se acercan a 1, esto significa una disminución de la dispersión de
los datos y por lo tanto una ganancia en la precisión y mejora en el proceso. Es
también posible detectar únicamente cambio de escala en el proceso, centrando
los datos.
En tal caso: = 05 = 2 y
= 1− 2
7.8.3. Q-charts
Estadístico:
( ) =1
X=1
()
Se muestran los valores( ), promedios de los rangos {(1) ()}en las submuestras de tamaño q, frente a los j intervalos de tiempo, con
= 1
= 05
Si q es grande:
≈ (05− 2p(− 1 + − 1)12)
Si q es pequeño y 1!:
=¡(!)1
¢
7.8.4. DDMA-charts
Para construir el grafico, se calculan las medias móviles de tamaño q, de
la muestra que se quiere controlar {X1,. . . , Xn} y de la muestra de referencia
{Y1,. . . , Ym} respectivamente:
Para cada se calcula el rango relativo con respecto a
−+1(e) =
#ne −+1() −+1() =
o− + 1
= 05 y =
CONTROL-CHARTS DE PROCESOS MULTIVARIANTES BASADOS EN EL CON-
CEPTO DE PROFUNDIDAD DE DATOS 157
Figura 7-18 Ejemplo de Q chart.
Figura 7-19
Ventaja del DDMA-chart con respecto al Q-chart: mucho más sensible a
las variaciones de posición, manteniendo la misma capacidad en detectar las
variaciones de escala. ..
Ejemplo: doble exponencial con cambio de posición en el proceso (de izquier-
da a derecha el tamaño de las submuestras va aumentando: q=2,4,6)
Los gráficos DDMA son más sensible a las variaciones de posición
Los gráficos Q-chart no detectan bien las variaciones de posición.
158 GRÁFICOS DE CONTROL MULTIVARIANTES.
Figura 7-20
7.8.5. S-charts
El S-chart es la representación de las sumas acumuladas de las desviaciones
dal valor medio de los rangos. El estadístico es:
() =
X=1
(()− 12)
= 0 y = −
p{2[(1) + (1)]12}
En este caso el limite de control es una curva.
por lo tanto, conviene utilizar el estadístico estandarizado:
∗() =()q2
12
¡1+ 1
¢De forma que los límites resultan líneas rectas.
= 0 y = −
CONTROL-CHARTS DE PROCESOS MULTIVARIANTES BASADOS EN EL CON-
CEPTO DE PROFUNDIDAD DE DATOS 159
Figura 7-21 Ejemplo de S-chart.
160 GRÁFICOS DE CONTROL MULTIVARIANTES.
8. CONTROL DE RECEPCIÓN.
Contenido del tema:Fundamentos estadísticos de los planes de muestreo.
Plan de muestreo por atributos y por variables. Curva característica para un
plan de muestreo. Nivel de calidad aceptable y Calidad media de salida. Las
normas MIL-STD-105 yMIL-STD-414 y sus correspondientes extensiones (AN-
SI/ASQC/ISO). Ejercicios.
8.1. Fundamentos estadísticos de los planes de
muestreo
El control de recepción se aplica a las materias primas, materiales o produc-
tos intermedios recibidos y que serán introducidos en el proceso de fabricación.
Partimos de una población o colectivo que nos interesa estudiar, normalmente
en este contexto suelen ser productos producidos en línea o bien recibidos en
lotes, es posible que esta población tenga un tamaño finito conocido que de-
notaremos por . Para el estudio de alguna de sus características de calidad
utilizaremos una muestra de tamaño .
Se denominará lote a un conjunto de productos del que se quiere tomar
una decisión de rechazarlo o no en función de la proporción de productos no
conformes que posea. En general los artículos serán suministrados en lotes,
los cuales pueden ser examinados bien por el fabricante antes de su envío, o
bien por el comprador antes de aceptarlos. Este proceso es el que se denomina
muestreo por lotes y será objeto del estudio de este tema.
Aunque en este tema se tratará del muestreo para aceptación de lotes, lo
cierto es que podrían darse otras estrategías para la toma de decisiones, sin
recurrir al muestreo. En general, existen tres posibilidades para evaluar un
lote: aceptar el lote sin inspeccionar, extraer una muestra y sacar una con-
clusión sobre el lote completo (control por muestreo o muestreo de aceptación)
o inspeccionar la totalidad de individuos del lote (inspección al 100%).
La primera opción es útil en situaciones de alta confianza entre el productor
y el consumidor, donde la calidad es tan alta que no existe apenas probabilidad
de encontrar unidades defectuosas (por ejemplo en productos con índices de
capacidad del orden de 3 o superiores). El muestreo de aceptación se realiza
cuando no es factible, o es antieconómico, la inspección del 100% de los artícu-
los. Por ejemplo, en ensayos con destrucción del artículo. En otras ocasiones,
la inspección puede necesitar mucho tiempo o el coste de la inspección al 100%
ser demasiado elevado.
CONTROL DE RECEPCIÓN. 161
La finalidad del control de recepción es tomar una decisión sobre el lote
completo en función de lo que se observa en la muestra. Es decir, aceptar o
rechazar un determinado lote, basándonse en la información de una o varias
muestras. Así, el principal objetivo del control de recepción es juzgar los lotes.
No está asociado a estimar la calidad de los lotes, sino determinar la proporción
de lotes buenos y malos. Por tanto, con el control de recepción no se persigue
una mejora de la calidad del producto, ya que sólo pretende verificar que la
producción esté conforme con los requisitos.
Para la selección de las muestras se utilizará el muestreo aleatorio simple, es
decir, las unidades de un lote serán elegidas al azar de forma equiprobable, lo
que puede hacerse mediante la asignación de etiquitas numeradas y utilizando
un generador de números aleatorios para su elección. En algunos casos, suele
utilizarse también el muestreo estratificado en aquellos lotes en los que los
productos están distribuídos en capas, con objeto de que todos sean igualmente
probable y no se tienda a la elección de productos que están en capas superiores.
8.2. Planes de muestreo
Para realizar un control de recepción mediante la selección de una muestra
es necesario establecer un plan de muestreo. Un plan de muestreo para
aceptación no es más que un planteamiento del tamañó muestral necesario
que hay que usar y de los criterios de aceptación y rechazo correspondientes.
Por ejemplo, se podría plantear un plann que consista en la extracción de
una única muestra de cada lote y aceptar el lote entero si en la muestra hay
menos de cierto número de artículos defectuosos, pero también se podría pro-
poner la extracción de más muestras, dependiendo de si las muestras anteriores
no ofrecieron resultados concluyentes. Este procedimiento será lo que diferencia
los planes de muestreo simples de los secuenciales.
Los planes de muestreo pueden ser diseñados para el estudio control basado
en atributos o en variables. Además, como se comentó anteriormente, se clasifi-
carán en planes simples, dobles, multiples o secuenciales. Dado la importancia
que tienen para el control de la calidad se han generado unas reglas, auspiciadas
por organismos de estadarización como el americano ANSI/ASQC, las normas
UNE, las ISO o las españolas AENOR. La mayoría de estos planes de muestreo
son adaptaciones de planes militares, como las normas MIL STD propuestas
por el ejercito americano.
Diferentes tipos de control de recepción:
Planes de muestreo por atributos o por por variables
Plan de muestreo simple: se basa en la toma de una muestra aleatoria de
individuos y toma la decisión en base a estos.
162 CONTROL DE RECEPCIÓN.
Plan de muestreo doble: se basa en la toma de una primera muestra de
tamaño 1 a partir de la que se decide aceptar el lote, rechazar el lote o
extraer una segunda muestra de tamaño 2.
Plan de muestreo múltiple es una extensión del muestreo doble donde se
pueden tomar de 1 a muestras antes de la decisión.
Plan de muestreo secuencial: es un caso extremo del muestreo múltiple
donde se van extrayendo una a una las unidades y en cada momento se
puede decidir aceptar, rechazar el lote o tomar un nuevo individuo.
8.3. Plan de muestreo simple por atributos
En pocas palabras, un plan de muestreo simple requiere elegir el tamaño
de la muestra, , y un número de defectuosos, , tales que si el número de
defectuosos observados en la muestra, , es mayor que , el lote se rechace,
mientras que si es menor o igual que , se acepte. Por ejemplo, de un lote
con = 5000 artículos, un plan de muestreo simple podría consistir en elegir
una muestra aleatoria de = 50 artículos y aceptar el lote siempre que en la
muestra no haya más de = 1 artículo defectuoso.
Para el estudio del plan de muestreo será necesario analizar la calidad con-
seguida, tanto desde el punto de vista del productor como del cliente. Supóngase
que se recibe un lote de un gran número, , de productos y que el comprador
considera que si la proporción verdadera de elementos defectuosos, , es menor
que un valor el lote es aceptable. El valor se denomina nivel de calidad
aceptable (o AQL, del inglés Acceptable Quality Level). Habitualmente, el
valor depende de criterios económicos y técnicos. La idea para un plan de
muestreo por atributos simple, basado en el nivel de calidad aceptable, será
aceptar un lote si su proporción de artículos defectuosos es un valor menor que
y rechazamos el lote si la proporción es mayor que .
Como la decisión estará sujeta a errores (falsos positivos y falsos negativos)
existe también en este contexto de control de recepción los dos tipos de errores:
el error de tipo I, que en este caso consiste en rechazar un lote que en realidad
es aceptable ( = ) y el error de tipo II, que equivale a aceptar un lote que
se debería rechazar ( ). Al objeto de controlar mejor el error de tipo II,
suele optarse por fijar un valor , mayor que , llamado nivel de calidad
rechazable (RQL del inglés), y tomar una alternativa simple del tipo = .
Con estas definiciones de nivel de calidad aceptable y rechazable y suponien-
do la distribución binomial para el número de artículos defectuosos en una
muestra aleatoria de artículos, se podrá calcular el error de tipo I o riesgo
del vendedor como:
=
X=+1
µ
¶(1− )
−
PLAN DE MUESTREO SIMPLE POR ATRIBUTOS 163
mientras que el error de tipo II, o riesgo del comprador, es
=
X=0
µ
¶(1− )
−
Si el tamaño muestral es grande, estas probabilidades, basadas en la distribu-
ción binomial, podrán ser aproximadas mediante valores de una distribución
normal. Habitualmente suele elegirse de forma que oscile entre 4 y
10.
Así pues, para encontrar un plan de muestreo ideal habrá que minimizar
estos dos tipos de errores rechazar lotes buenos (riesgo para el vendedor) y
aceptar lotes malos (riesgo para el comprador). Gráficamente, se podrá uti-
lizar la denominada curva OC para el diseño de un plan de muestreo como se
analizará en la siguiente sección.
8.3.1. Curva OC para un plan de muestreo simple
Un elemento importante a la hora de juzgar el comportamiento del plan
diseñado es la curva característica (curva OC). Su construcción, en este con-
texto, es la siguiente: dado un valor ∈ [0 1], la curva característica para esaproporción, (), representa la probabilidad de aceptar el lote (mediante el
plan de muestreo diseñado) cuando la proporción de defectuosos en el mismo
es .
Una vez fijados los valores de esta curva: ( ) y ( ), puede obtenerse
el tamaño muestral, , y el máximo valor permisible del número de defectos,
, para aceptar el lote. Esto es lo mismo que decir que fijados dos puntos de la
curva característica puede obtenerse el plan de muestreo con dichas especifica-
ciones.
Para determinar un plan de muestreo mediante el uso de la curva OC, el
comprador y el vendedor deben negociar un plan con una curva OC que les
interese a ambos. Para ello, el comprador debe especificar el nivel de calidad que
le gustaría que le suministrase el vendedor, es decir, el nivel de calidad aceptable
(AQL), esto equivale también a fijar el riesgo . Este riesgo, que como se ha
visto coincide con la probabilidad de rechazar el lote cuando = también
será igual a 1 − (). Finalmente, el comprador debe también decidir qué
nivel de calidad es inaceptable (limiting quality level, LQL). A esta proporción
de defectuosos inaceptable es la que se llamó . En la práctica suelen elegirse
estas proporciones de forma que está entre 4 y 10.
Suponeindo que la distribución de defectuosos de un lote sigue una dis-
tribución binomial, suele hacerse esta suposición cuando el tamaño de muestra
es mucho menor del tamaño del lote , normalmente se consiguen buenas
aproximaciones sólo con que 01, esto permite que se pueda aproximar
la distribución hipergeométrica por la binomial, siendo la probabilidad de que
un lote que contiene artículos defectuosos:
164 CONTROL DE RECEPCIÓN.
( = ) =!
!(− )!(1− )−
En donde es la probabilidad de artículos defectuosos del lote, estimada por
la proporción de defectuosos observada. Puesto que la aceptación se produce
si el número de defectuosos en la muestra es igual o inferior a . Se tendrá que
la probabilidad de aceptación es:
= ( ≤ ) =
X=0
!
!(− )!(1− )−
Como se comentó el uso de la distribución binomial es una aproximación
al problema, pues supone que cada extracción es independiente de la anterior
y que esta proporción permanece constante en cada extracción de un artícu-
lo, esto es equivalente a realizar extracciones con reposición. En la práctica
las extracciones de piezas para el control no suelen ser devueltas al lote para
su posterior elección, por lo que mejor refleja la extracción es la distribución
Hipergeométrica.
Así, si el número de artículos defectuosos en una muestra de tamaño
extraída de un lote de tamaño , en el que hay artículos defectuosos, por lo
que la proporción de artículos defectuosos será = , sigue una distribución
llamada distribución hipergeométrica de parámetros ( ). Si es la
variable que mide el número de artículos defectuosas del lote de tamaño ; se
tiene que:
= ( ≤ ) =
X=0
¡
¢¡−−¢¡
¢Normalmente, para la representación de curvas , se suele utilizar la
aproximación binomial siempre que se puede. Estas curvas se denominan obtenidas
con la distribución binomiale se llaman curvas de tipo , mientras que las
que se obtienen directamente aplicando los cálculos con la distribución hiper-
geométrica se llaman curvas de tipo .
Resulta bastante laborioso determinar un plan de muestreo a partir del
valor de la curva característica en dos puntos, tanto si se supone distribuciones
binomiales como hipergeométricas. Para simplificar esta tarea se puede acudir
a tablas que proporcionan las características del plan en cuestión. Otra opción
es la de aproximar la distribución por una Poisson, de media = lo que
permite una simplificación de los cálculos en alguno casos, pues habría que
calcular:
= ( ≤ ) =
X=0
exp(−)()!
Como ya se comentó anteriormente, para el diseño del plan de muestreo se
deben de fijar valores de pA, pR, y calcular, a partir de las ecuaciones anteriores
PLAN DE MUESTREO SIMPLE POR ATRIBUTOS 165
dabas por las expresiones deben calcularse valores para n y c. Puesto que estos
valores deben ser números enteros existen diversas estrategias a la hora del
diseño del plan de muestreo simple de forma que se verifiquen aproximadamente
los riesgos asumidos para los niveles de calidad prefijados.
Se pueden utilizar dos enfoques diferentes para crear planes de muestreo
mediante el uso de estas curvas: planes de muestreo con número de aceptación
iguales a 0, = 0, o planes con valores c que son un porcentaje fijo del tamaño
muestral.
En la práctica el proveedor y el consumidor tendrán puntos de vista difer-
entes a la hora de establecer un plan de muestreo. Es lógico que el proveedor
quiera conocer el nivel de calidad del lote o del proceso que pruduzca una al-
ta calidad de aceptación, mientras el comprador o consumidor lo que estará
interesado en conocer cuál es el nivel de calidad del lote o proceso que pro-
ducirá una baja probabilidad de aceptación. En este sentido son importantes
los planes de muestreo con criterios económicos.
El objetivo de un diseño de un plan de muestreo es, pues, doble, por una
parte garantizar que, aplicando dicho plan, lotes con un porcentaje de defec-
tuosos bajo se acepten con una probabilidad muy alta. Esto es equivalente a
decir, que a la izquierda de pA la curva OC(p) se aproxime a la unidad. Por
otra parte, se busca garantizar que lotes con un porcentaje de defectuosos alto
sean aceptados con una probabilidad muy baja. Por tanto, a la derecha de pA
la curva OC(p) correspondiente se aproxime a cero.
Finalmente, cabe destacar que los planes de muestreo se dividen en dos
tipos: aquellos que tan sólo recomiendan la aceptación o el rechazo de un lote
(planes de aceptación/rechazo) y los que consisten en inspeccionar al cien por
cien los lotes rechazados, reemplazando los elementos defectuosos por otros no
defectuosos. Dentro del primer tipo destacan las normas japonesas (o plan JIS
Z 9002) y las norteamericanas (Military Standard). Por su parte, los planes
rectificativos más utilizados son debidos a Dodge y Romig.
Ejemplo: Calculor la proporción de calidad aceptable de un plan de muestreo
siendo la probabilidad de defectuosos del lote fuese = 001, = 100 y = 2,
tendríamos:
= ( ≤ 2) =X
=0
100!
!(100− )!001(099)−
= (099)100 + 100(001)(099)99 +100(99)
20012(099)98
= 0366 03 + 0369 7 + 0184 86 = 0920 59
Pueden utilizarse aproximaciones de la distribución binomial a la Normal
y a la Poisson.
Ejemplo: Diseñar un plan de muestreo para lotes de 10000 unidades con
los siguientes parámetros: = 002, = 005, = 004, = 005.
La variable , número de defectos, es aproximadamente normal con media
y desviación típicap(1− ). Así pues, las especificaciones anteriores nos
166 CONTROL DE RECEPCIÓN.
llevan a que han de elegirse (máximo número de defectos permitidos) y
(tamaño muestral) de forma que
1−Φ
Ã− 002p
002(1− 002)
!= ( |=002) = 005 y
Φ
Ã− 004p
004(1− 004)
!= ( ≤ |=004) = 005
Esto equivale a imponer las condiciones
= 002+ 005p002(1− 002)
= 004− 005p004(1− 004)
Teniendo en cuenta que 005 = 164, se obtiene
164p004(1− 004) + 164
p002(1− 002) = 002
es decir,
164p004(1− 004) + 164
p002(1− 002) = 002
Esta ecuación puede escribirse de la forma
0 55097√ = 002
De donde se sigue que ha de ser (0 55097002)2= 758 92.
Tomando, por aproximación, = 759 se obtiene = 002·759+164p759 · 002(1− 0
21 505.
En resumen, el plan de muestreo que satisface las características especifi-
cadas es el que consiste en tomar muestras de 759 unidades, rechazando el lote
si se encuentran 22 o más elementos defectuosos y aceptándolo si el número de
defectuosos es menor o igual que 21.
Ejemplo: En un plan de muestreo para lotes de 15.000 tornillos, la probabi-
lidad de que un lote sea aceptado si contiene un 1,59% de unidades defectuosas
será:
(00159) = −X
=0
()
!
donde resuelto el plan de muestreo queda:
= n◦ de unidades defectuosas en la muestra. = probabilidad de aceptación.
=315, tamaño de la muestra.
= 5, número de aceptación.
=0,0159, proporción de defectuosos en el lote.
PLAN DE MUESTREO SIMPLE POR ATRIBUTOS 167
En efecto, si la regla de decisión ha sido aceptar el lote si en la muestra de
tamaño 315 aparecen 5 o menos de 5 unidades defectuosas, la probabilidad de
aceptación será la dada por la expresión anterior.
Esta probabilidad puede calcularse con ayuda de una tabla de la distribu-
ción de Poisson, o directamente.
Pa = 0,616
es decir, se aceptarán el 61,6% de los lotes que lleven un 1,59% de defec-
tuosos.
Ejemplo: La curva OC indicará el poder discriminatorio del plan de muestreo,
así en el ejemplo anterior para = 001 resultaría una probabilidad de aceptación
del lote de 092. Esto significa que si se aplicara esta plan de muestreo a lotes
con un porcentaje de defectuosos del 1%, la probabilidad de que fuesen acep-
tados sería de 092: de 100 lotes aceptaríamos 92 y rechazaríamos 8.
Para el cálculo de la curva OC podríamos dar distintos valores para y
determinar por ejemplo en el caso de que = 005:
= (095)100 + 100(005)(095)99 +
100(99)
20052(095)98 = 0118 26
En la siguiente tabla se presentan algunos valores para esta curva OC:
= (09)100 + 100(01)(09)99 +
100(99)
2012(09)98 = 0118 26
001 0920 59
002 0676 69
003 0419 78
004 0232 14
005 0118 26
006 005661
008 001127
010 000194
8.4. Planes de muestreo dobles y secuenciales
Los planes de muestreo dobles son una extensión natural del plan simple.
Se basan en extraer primeramente una muestra de tamaño 1 y se cuenta el
número de artículos defectuosos de esta primera muestra 1. Si este número es
muy elevado, superior a un valor 2, se toma la decisión de rechazar el lote. Por
el contrario, si el número 1 es muy bajo, menor o igual que cierto valor 1,
el lote se acepta. Cuando el número de defectuosos 1 se encuentra entre esos
168 CONTROL DE RECEPCIÓN.
valores extremos, es decir si 1 1 2 se concluirá que la muestra no arroja
evidencia suficiente para tomar la decisión, eligiéndose una segunda muestra de
tamaño 2 y se evalúa el número de defectuosos de esta segunda muestra, 1.
Si 1+2 es mayor que cierta cantidad 3 el lote se rechaza definitivamente. En
caso contrario se acepta. Para la selección de estos valores existen tablas que
permiten la toma de decisiones, aunque hoy en día lo habitual es la utilización
de programas informáticos que simplifican la labor.
La idea del muestreo doble puede extenderse de forma natural, cuando en
vez de elegir una segunda muestra, se permite la elección de una tercera, cuarta,
etc. Es los que se denomina plan de muestreo secuencial. En este caso el tamaño
muestral se va aumentando unidad a unidad. Después de cada observación se
decide si el lote se acepta, se rechaza o se continúa muestreando.
Como ventaja de los planes de muetreo dobles y secuenciales es que resultan
más económicos, ya que como el primer tamaño muestral 1 suele ser mucho
menor que el que se requiere en el muestreo simple, permite reconocer en la
primera muestra a los lotes muy malos o muy buenos. Como desventaja de los
planes dobles y secuenciales frente a los simples es que para lotes de calidad
intermedia se corre el riesgo de requerir una mayor inspección que en los planes
de muestreo simple, por lo que se suele detener la inspección en el momento
que se alcanzan 3 + 1 artículos defectuosos, sin seguir la inspección.
La curva característica para los planes de muestreo dobles y secuenciales
puede también calcularse, para ello será necesario calcular las probabilidades
de aceptación y rechaza para cada una de las muestras seleccionadas. Así en
el caso de un plan doble, habría que calcular la probabilidad de aceptación de
la primera muestra y de la segunda muestra para lo que será necesario tener
en cuenta las opciones de aceptación de esta segunda muestra condicionadas
al resultado de la primera, finalmente el valor de la probabilidad de aceptación
se obtendría sumando estas dos probabilidades. Este proceso se ilustra con el
siguiente ejemplo.
Ejemplo: Construir la curva OC para un plan de muestreo doble, donde se
supone una proporción de 0.05 artículos defectuosos del lote. El plan consistiría
en que se acetaría el lote si no aparcen defectuosos en la primera muestra de
tamaño 50, o aparece un solo defectuoso, y en caso de que aparezcan dos defec-
tuosos se elige una segunda muestra de tamaño 100 aceptándose sólo cuando
haya menos de dos defectuosos en total de las dos muestras, por lo que tendría
los siguientes parámetros: = 5000, = 005, 1 = 50 1 = 1 2 = 100 y
2 = 1
La probabilidad de aceptación se obtendrá sumando las probabilidades
respectivas para la primera fase de muestreo y para la segunda fase: 1 y
2. Utilizando la distribución binomial (en este caso estaría justificada al ser
01), se obtine:
PLANES DE MUESTREO DOBLES Y SECUENCIALES 169
1 = ( ≤ 1) =
1X=0
50!
!(50− )!005(1− 005)50−
= 09550 + 50 (005) (095)49= 0279 43
Para obtener 2 habrá que tener en cuenta las distintas formas de obtener esta
segunda muestra en relación al número de defectuosas de la primera muestra.
Se toma una segunda muestra cuando hay 1 o 2 defectuosos en la primera, por
lo que las opciones serían:
Se encuentran dos defectuosos en la primera (1 = 2) y ninguno en la
segunda (2 = 0):
(1 = 2 2 = 0) = (1 = 2) (2 = 0) =
=
µ50!
2!(50− 2)!0052(1− 005)50−2
¶µ100!
0!(100− 0)!0050(1− 005)100−0
¶= 000155
La otra opción es que se encuentre uno defectuoso en la primera (1 = 1) y
uno en la segunda (2 = 1):
(1 = 1 2 = 1) = (1 = 1) (2 = 1) =
=
µ50!
1!(50− 1)!0051(1− 005)50−1
¶µ100!
1!(100− 1)!0051(1− 005)100−1
¶= 000631
Por tanto, la probabilidad de aceptación de la segunda muestra podrá obtenerse
sumando estas dos probabilidades:
2 = (1 = 2 2 = 0) + (1 = 1 2 = 1) = 000155 + 000631 = 0007 86
Finalmente, la probabilidad de aceptación del lote resultará:
= 1 + 2 = 0279 43 + 0007 86 = 0287 29
8.5. Planes de muestreo Rectificativos
El plan de muestreo rectificativo, como su nombre indica, permite que
cualquier lote que sea rechazado es sometido a una inspección al 100% y se
170 CONTROL DE RECEPCIÓN.
sustituyen todos los artículos defectuosos por artículos buenos (lote rectifica-
do). Si el lote es aceptado, pero durante la inspección se hallaron artículos
defectuosos, estos también se reemplazan por artículos buenos.
Mediante la aplicación de este plan de muestreo, el comprador recibirá dos
tipos de lotes. El primer tipo de lote corresponde a aquellos que han superado la
etapa de muestreo, por lo que contendrán una pequeña proporción de artículos
defectuosos. Mientras que un segundo tipo de lotes estarán compuestos por
aquellos que han sido revisados al 100% y rectificados. De estos dos tipos de
lotes puede calcularse la calidad media de salida o AOQ (Average Outgoing
Quality), que es la proporción media de artículos defectuosos que recibe el
comprador.
El valor de la calidad media de salida, AOQ, se puede obtener partir de la
proporción de defectuosos (), de los artículos, que se dan por seguro que son
buenos al ser rectificados en caso de contener algún defectuoso. Así si el lote ha
sido rechazado, los− restantes también han sido repasados y serán tambiénno-defectuosos, con cierta probabilidad 1 − (). Si el lote es aceptado, lo
que ocurrirá con probabilidad () se podrá afirmar que habrá ( − )
artículos defectuosos por lote. Por lo que resultará:
() =( − ) ()() + (1−())0
=( − ) ()()
En el supuesto en que N sea mucho mayor que n ( 001) se po-
drá aproximar la expresión anterior por () = () que, lógicamente,
siempre será un valor menor que .
Es frecuente la representación de la expresión () en función de valores
de , lo que se denomina curva Si por ejemplo = 0 el valor de = 0
y para el caso en que = 1, todos los lotes serán sometidos a inspección al 100%
y rectificación por lo que de nuevo = 0. Entre estos dos casos extremos,
el valor de la curva AOQ tendrá un máximo, que se denomina AOQL (average
outgoing quality limit).
Un elemento muy importante a tener en cuenta por el productor, en un
plan de muestreo rectificativo es el número de unidades inspeccionadas. En
el caso en que p sea un valor muy grande se dará con mucha frecuencia una
inspección y rectificación completa del lote. Si se define la variable X como la
variable aleatoria que mide el número de unidades inspeccionadas en un lote.
Se puede determinar la esperanza de esta variable que representará el número
medio de unidades inspeccionadas, y que comunmente se denomina valor de
inspección total media o ATI (average total inspection) y vendrá dado por
la esperanza de dicha variable aleatoria:
= [] = () +(1−()) = + ( − )(1−())
Este valor puede ser utilizado para el diseño de un plan de muestreo recti-
ficativo. La idea se basa en minimizar el ATI, dando el tamaño muestral N, el
PLANES DE MUESTREO RECTIFICATIVOS 171
valor del AOQL deseado y p, este tipo de estrategia es la que utiliza el conocido
como plan Dodge-Roming.
8.6. Control de recepción por variables
Cuando se pretende realizar planes de muestreo basados en características
de calidad medibles, normalmente basadas en medias o desviaciones típicas,
se tiene un proceso de control de recepción por variables. La ventaja de los
planes de muestreo por variables estriba en que proporciona mayor informa-
ción y requiere un tamaño muestral menor; ya que se pueden obtener curvas
características de operación con menor tamaño muetral que el muetreo por
atributos. Como desventaja de este tipo de control está que se requiere una
información más detallada del proceso. En algunos contextos, como el de prue-
bas destructivas o de alto coste de muestreo es más recomendable este tipo de
muestreo.
La desventaja de los planes de muestreo basados en variables es que se
necesita conocer la distribución de la variable de estudio, en la mayoría de los
casos se supondrá normalidad para dicha distribución, pero en los casos en que
esta hipótesis no se cumpla los resultados del plan pueden presentar errores
considerables, por lo que es muy importante verificar, mediante los contrastes
oportunos, las hipótesis del modelo. Por otra parte, cuando se analizan varias
características sobre un mismo producto es necesario crear planes de muestreo
diferentes para cada característica analizada.
Existen dos posibilidades para establecer planes por variables, por una parte
controlar la proporción de disconformes de un lote basándose en que sobrepasan
determinadas especificaciones, y por otra, planes de muestreo que controlan una
variable como la media del proceso.
En el caso de planes que contralan la proporción de disconformes, se basan
en el hecho de que dado que la característica a medir tendrá unas especifi-
caciones superior (LSE) e inferior (LIE) o bien ambas, muestrear el lote con
objeto de verificar si la media está dentro de estas especificaciones.
En el caso en que se suponga una desviación conocida se selecciona una
muestra aleatoria de tamaño del lote y se obtiene la media muestral (),
calculando el valor de los estadísticos siguientes:
= −
= −
Estas expresiones miden la distancia en unidades de desviación típica de
la media muestral y los límites de especificación. Cuanto mayor sean estas
172 CONTROL DE RECEPCIÓN.
distancias mayor será la discrepancia entre el lote y las especificaciones y, por
tanto, menor será la proporción de disconformes del lote analizado. En algunos
planes de muestreo para variables, se proponen una distancia crítica, k para
los valores y que permiten la toma de decisiones.
Al igual que el caso del control por atributos también es posible el diseño
de planes de muestreo por variables basados en las curvas OC, para ello puede
ser útil el uso de nomogramas basados en los resultados obtenidos para los
correspondientes puntos de la curva OC.
La norma militar MIL-STD-414 (y su correspondiente norma civil AN-
SI/ASQC Z1.9) son normas para el control de recepción por variables. Un breve
resumen de la norma así como de otras para el caso de control por atributos
se presenta en la siguiente sección.
8.7. Diseño de planes de muestreo
Una de las soluciones para encontrar el plan de muestreo es usar el un grá-
fico con escalas que permite, mediante el trazado de dos rectas determinar los
valores de y , a partir del punto donde se cortan dichas rectas. Este méto-
do se conoce como Nomograma. Otra propuesta es emplear la aproximación
de las distribuciones discretas por una distribución normal. En este caso las
ecuaciones que habría que resolver resultan más sencillas. Pero sin duda, en el
contexto del control de recepción se suelen utilizar planes específicos, normal-
mente sugeridos por normas de calidad, y que aportan soluciones para casos
concretos. Entre los planes más utilizados están los basados en las normas del
ejercito americano como las MIL-STD, que fueron propuestos en un principio
para el control de calidad de las fábricas de armamento durante la segunda
guerra mundial. Estas normas siguen a utilizarse hoy en día con ligeras modi-
ficaciones. A continuación se analizarán de forma somera estas normas.
8.7.1. El plan Military Standard para atributos (MIL-STD-105D ó ANSI/ASQC
Z1.4 ó UNE 66020)
Estos planes fueron diseñados por el ejercito de Estados Unidos durante la
segunda guerra mundial, aunque la primera versión se publicó en 1950, han
aparecido distintas versiones actualizadas de la misma, siendo fácil su acceso
libre en Internet.
Esta norma sigue siendo de gran aplicación en todo el mundo. Sus car-
acterísticas fundamentales son que el plan depende del tipo de inspección a
realizar (coste económico de la misma) y que se va ajustando en funci ón de
la calidad de los lotes que se inspeccionan. Los planes están diseñados para
DISEÑO DE PLANES DE MUESTREO 173
ofrecer un valor de AQL del 5 ( = 005), pero no tienen en cuenta el valor
de . En la práctica el riesgo es pequeño si es aproximadamente cinco
veces .
El funcionamiento del plan se esquematiza en los siguientes pasos:
Decidir el AQL.
Determinar el tipo de inspección:
1. Nivel I: coste de inspección alto.
2. Nivel II: coste estándar.
3. Nivel III: coste de inspección bajo
4. Niveles S1 a S4: ensayos destructivos.
Determinar el rigor de la inspección:
Para aplicar el plan hay que seguir una serie de pasos:
Decidir el AQL o pA. Las columnas desde 0.01 hasta 10 son de nocon-
fomes. El resto de columnas desde 15 a 1000 indican el número de no-
conformidades por 100 unidades.
Determinar el nivel de inspección en función de su coste (nivel I, II, III,
o niveles especiales).
Con el tamaño del lote y el nivel de inspección anterior ir a la tabla de
códigos y encontrar el código de inspección (tabla 10.7 del anexo).
Determinar el plan de inspección (normal, riguroso (o estricto) y reduci-
do).
Con el código de inspección y el plan de inspección, acudir a la tabla
correspondiente.
Tomar la muestra y ejecutar la inspección.
Ejemplo de plan Military Standard: Supongamos que N = 500 y que el
AQL = 4 y Nivel II.
Con estos datos para determinar el plan de muestreo simple de la norma
MIL STD 105E, se busca en la correspondiente tabla los valores del plan:
Mirando en la tabla del plan la letra del código es J, y los valores (n, Ac,Re)
son (80, 7, 8) en inspección normal, (80, 5, 6) en inspección estricta y (32, 3,
6) en inspección reducida.
174 CONTROL DE RECEPCIÓN.
8.7.2. El plan Military Standard para variables (MIL-STD-414 o ANSI/ASQC
Z1.9)
La norma militar se propuso para el control de recepción por variables en
el año 1957 basándose en el concepto de nivel de calidad aceptable (AQL), que
normalmente varía entre 0.04% y 15%.
Al igual que el caso anterior de la norma para atributos, propone el uso de
letras de código para el tamaño muestral, siendo estos una función del tamaño
del lote.
La norma se divide en 4 secciones (A,B, C y D) y emplea tablas similares
al caso del control para atributos.
8.7.3. El plan japonés JIS Z 9002
Para ciertas elecciones de los valores y , mediante una simple tabla de
doble entrada para y , se obtiene el tamaño de la muestra, , y el número
máximo de defectuosos admisibles, .
Para la aplicación de esta norma se suele utilizar una una tabla de valores
que proporcionan, para unos valores de pA y pR, las correspondientes solu-
ciones para n y c que satisfacen, aproximadamente, las condiciones requeri-
das. Así, por ejemplo, si se desea diseñar un plan de muestreo con = 005,
= 010, = 002 y = 010, se acude a la tabla del plan JIS Z 9002, con
= 005 y = 010 y se busca la fila correspondiente a un 2 y la columna
donde se halla el 10 . Con todo esto se encuentra que el tamaño de las muestras
ha de ser = 60, rechazando el lote siempre que el número de defectos exceda
de = 3.
Los planes de muestreo siguiendo estas normas japonesas presentan curvas
características que pasan aproximadamente por los puntos especificados.
8.7.4. Planes Dodge-Romig de control rectificativos
Se basan en la idea de inspeccionar el total de los lotes rechazados, reem-
plazando las unidades defectuosas por otras en buen estado. Estos planes con-
siguen que la calidad media de salida (AOQ) sea alta. Supóngase un lote de
tamaño , con unidades defectuosas. Entonces, la proporción de defectuosas
es = . Considérese () la probabilidad de que un plan dado acepte lotes
con esa calidad. Es evidente que la calidad media de salida después del plan
de muestreo es
= () · + (1− ()) · 0 = () ·
DISEÑO DE PLANES DE MUESTREO 175
La curva resultante se obtiene multiplicando la curva () por el valor
. Como consecuencia, es muy parecida a la función identidad cuando es
cercano a cero, para luego alcanzar un máximo, denominado límite de calidad
media de salida (AOQL) y posteriormente decrecer hacia altura cero. La
razón es muy sencilla: lotes con una gran proporción de defectos tenderán
a ser examinados en su totalidad prácticamente siempre y, por tanto, a ser
reemplazados los defectos por elementos no defectuosos.
Las tablas suministradas por los planes de control rectificativo de Dodge-
Romig pueden usarse de dos formas distintas. Dados , el AQL y , encontrar
, y el AOQL (tomando el riesgo del comprador igual a 010), o bien fijando
, el AQL y el AOQL, se determinan , y .
176 CONTROL DE RECEPCIÓN.
9. FIABILIDAD. PRINCIPIOS BÁSICOS
9.1. Introducción.
En los últimos años se produjo una revolución en el uso de métodos es-
tadísticos para mejorar la calidad de productos y servicios. Sin embargo, la
aplicación de técnicas relacionadas con la fiabilidad no son tan frecuentes en
la mayoría de las organizaciones, esto puede deberse a que gran parte de estas
herramientas sólo son empleadas en aquellos problemas en donde la fiabilidad
siempre ha jugado un papel vital, como puede ser el caso de la industria aeron-
aútica o la elctrónica. Hoy en día los ingenieros están convencidos de que una
buena fiabilidad es una característica indispensable para tener la oportunidad
de competir, siendo esta necesidad mayor en algunos casos, como en el de la
construcción en los que es necesario un alto grado de eficacia y donde algunos
fallos pueden resultar catastróficos.
La fiabilidad se suele definir como “la calidad a través del tiempo” (Con-
dra 1993). Una buena fiabilidad es, sin duda, una característica indispensable
para tener la oportunidad de competir. Por lo tanto, un producto fiable es
aquel que permanece con una buena calidad, lo que obliga a estar dentro de
sus límites de especificación, durante su vida tecnológica. Por otra parte, la
Mantenibilidad es un concepto que hace referencia a la cantidad de esfuerzo
requerida para conservar el funcionamiento normal o para restituirlo una vez
se ha presentado un evento de fallo. En este contexto, se dirá que un sistema
es .Altamente mantenibleçuando el esfuerzo asociado a la restitución sea ba-
jo. Sistemas poco mantenibles o de "Baja mantenibilidadrequieren de grandes
esfuerzos para sostenerse o restituirse.
La Mantenibilidad, por tanto, está inversamente relacionada con la duración
y el esfuerzo requerido por las actividades de Mantenimiento. Puede ser asocia-
da de manera inversa con el tiempo que se toma en lograr acometer las acciones
de mantenimiento, en relación con la obtención del comportamiento deseable
del sistema. Esto incluye la duración (horas) o el esfuerzo (horas-trabajador)
invertidos en desarrollar todas las acciones necesarias para mantener el sistema
o uno de sus componentes para restablecerlo o conservarlo en una condición
específica. Depende de factores intrínsecos al sistema y de factores propios de
la organización de Mantenimiento.
FIABILIDAD. PRINCIPIOS BÁSICOS 177
9.2. Concepto probabilístico de fiabilidad
El concepto central de la teoría de la fiabilidad es el estudio de la distribu-
ción del tiempo hasta la que tiene lugar un suceso puntual que, genéricamente,
llamaremos fallo (en algún caso también se utiliza la expresión de falla). El
tiempo hasta la que este se presenta se denomina tiempo de fallo.
Como las distintas unidades de un producto no fallan todas al mismo tiem-
po. Desde el punto de vista estadístico, llamando al instante en el que falla
una unidad, podemos considerar como una variable aleatoria, y estudiar su
distribución de probabilidad, con el que llegamos a la definición matemática de
la fiabilidad como la probabilidad de que una unidad, escogida al azar, no haya
fallado en un tiempo . Así definida, la función de fiabilidad o supervivencia
es una función decreciente de , que denotaremos por (). Además, si y
son las funciones de densidad y de distribución de probabilidad de la variable
aleatoria , existe la siguiente relación:
() = ( ≥ ) = 1− () = 1−Z
0
()
Es decir, desde un punto de vista estadístico, la función de fiabilidad en
un tiempo representa la probabilidad de que un individuo (léase producto
o sistema) experimente un fallo con posterioridad al tiempo mientras la
función de distribución puede interpretarse como la proporción de la población
de unidades analizadas que fallan antes del tiempo . También es habitual en
este campo el uso de la función de riesgo o tasa de fallo:
() = lım ( ≤ +4 )
4=
()
()
La tasa o razón de fallo de un componente o sistema, permite estimar la
proporción de unidades que fallan en un intervalo de tiempo ( +4), con
respecto a las que siguen funcionando en un instante de tempo . Desde esta
perspectiva, podría decirse que ()4 es la aproximación de la probabilidad
de que un individuo que no falló antes de un tiempo lo haga en el siguiente
período de tiempo 4, donde 4 denota un pequeño incremento temporal. La
importancia de la función razón de fallo en los estudios de fiabilidad, además
de su flexibilidad para describir comportamientos, es que representa como la
probabilidad de fallo instantáneo varía con el tiempo.
También puede ser de interés la función de fallo acumulativa que se define
como:
() =
Z
0
() = − log(())
Si por ejemplo, consideramos una variable de tipo exponencial (que sería
una de las formas más simples de modelar la vida de un material) cuya fun-
178 FIABILIDAD. PRINCIPIOS BÁSICOS
ción de densidad podría representarse por () = exp(−), las funciones defiabilidad. distribución y razón de fallo serían:
() =
Z
0
exp(−) = 1− exp(−)
() =
Z ∞
exp(−) = exp(−)
() =()
()=
En este caso la razón de fallo es constante, su valor será y se dirá que
esta variable carece de memoria, en el sentido de lo ocurrido hasta el instante
de tiempo no influye en lo que ocurra después.
La representación da la tasa de fallo frente al tempo da lugar, en algunos
casos, a una curva conocida como curva de la bañera. En esta curva aparecen
una serie de fallos al principio del proceso conocidos como mortalidad infantil,
que suelen ser debidos a los desajustes propios de productos con poco uso,
luego aparecen fallos que se distribuyen de forma aleatoria en el tiempo, rama
más constante de la curva, terminando con un incremento de fallos debido al
desgaste o envejecimiento propio.
Cuando se hace un estudio cuantitativo, aparte de analizar las curvas de
fiabilidad o supervivencia (R(t)), se suelen definir una serie de medidas car-
acterísticas propias de esta materia como la vida media hasta el fallo (Mean
Time To Failure, MTTF) o la media entre fallos (Men Time Between Failures,
MTBF). Un estudio cualitativo de la fiabilidad lleva a análisis modal de fallos
y sus efectos (FMEA) o al análisis por árboles de fallos (FTA).
Existen métodos, tanto paramétricos como no paramétricos, que permiten
estimar estos valores en función de las observaciones de los fallos de muestras
de los productos analizados. Además, también se cuenta con guías de referencia
para tasas de errores dependiendo del producto estudiado. Por ejemplo, una de
estas guías es la elaborada por el Pentágono americano conocida coma MIL-
HDBK-217F o la MIL-STD-785 que indica los requisitos que deben cumplir los
sistemas de fiabilidad.
9.3. Características de los datos usados en fia-
bilidad
Cuando se examinan datos en trabajos de control de calidad, es habitual que
si se inspecciona una muestra de 100 artículos, se obtienen 100 observaciones,
estos datos desde el punto de vista estadístico se denominan datos completos.
En el contexto de pruebas de fiabilidad, cuando se estudia una muestra de
CARACTERíSTICAS DE LOS DATOS USADOS EN FIABILIDAD 179
tamaño 100 es raro que se obtengan 100 observaciones completas, debido a que
algunos de los artículos de la muestra pueden no fallar dentro de un período
razonable de tiempo o la prueba puede detenerse antes de que fallen todas
las unidades. Bajo estas circunstancias o cuando se desea un análisis en una
etapa intermedia antes de que finalice la prueba, el resultado será de datos
incompletos o de datos censurados.
Un dato está censurado cuando sólo se dispone de una cuota para el tiem-
po de fallo. Si esa cota es inferior tendremos un problema de censura por la
izquierda, si la cota fuera superior, que es el tipo más frecuente, hablaremos
de censura por la derecha. Cualquier estudio de fiabilidad debe tener presente
como fueron obtenidos los datos, ya que cuando tenemos un dato censurado,
el tiempo observado no corresponde a un tiempo de fallo; pero la información
parcial proporcionada por esa observación de tiempo de censura, no debe ser
rechazada para la obtención de modelos sobre o comportamiento de la vari-
able. La elección de un determinado modelo es función da su flexibilidad para
reproducir las características de las funciones de fiabilidad o de riesgo, y podrá
abordarse desde dos perspectivas: la paramétrica y la no paramétrica.
Técnicamente los modelos de censura suelen agruparse también en función
de censura por tiempo, que se presenta cuando se termina el estudio en un
determinado tiempo, también llamado tiempo de censura y se conoce como
Censura tipo I. En este supuesto solamente se conocerá el tiempo de fallo
exacto para las unidades que fallaron antes del tiempo de censura, mientras
que de las otras unidades sólo se conocerá que su tiempo de fallo es mayor que
el tiempo de censura. Otro tipo de censura, denominada censura de tipo II o
por fallo es la que se presenta cuando se interrumpe el estudio en un instante
en que se presentan una cantidad determinada de fallos, lógicamente menor
que el número de unidades analizadas, es decir, algunas siguen funcionando al
terminar el estudio.
9.4. Características de los modelos usados en fi-
abilidad
Además, cabe resaltar que en los estudios de fiabilidad aparecen variables
respuesta que son intrínsecamente no negativas: tiempos de fallo, niveles de
degradación, resistencia de materiales, número de eventos (fallos) en un período
de tiempo, etc. Por ello es común el uso de distribuciones de probabilidad como
la exponencial, la lognormal, la Weibull, la de valores extremos, la Gamma, o
la Poisson (ésta última para el número de fallos). Asimismo, es recomendable
(aunque no muy habitual) usar análisis exploratorios de datos y estimaciones no
paramétricas. El artículo de Lawless (2000) contiene una breve revisión sobre
las técnicas estadísticas utilizadas en fiabilidad, así como los nuevos retos y
180 FIABILIDAD. PRINCIPIOS BÁSICOS
líneas de investigación en este campo. Entre estos retos destacan los ensayos
acelerados para modelos físicos de degradación y fallo (ver Nelson (1990)), los
modelos de riesgo en competencia (ver Crowder (2001)). En el caso concreto
del sector naval, el campo de los sistemas complejos tiene una considerable
importancia (ver, por ejemplo, Dumitrescu (2006)).
En el caso de la estimación paramétrica, el problema consiste en suponer
que la función puede modelarse por una distribución concreta, que depende de
un número finito de parámetros que será necesario estimar a partir de mues-
tras de datos reales o simulados. Debido a que los valores observados en este
tipo de problemas son positivos, la modelización usualmente supone una dis-
tribución de tipo no normal. Así, es común el empleo de distribuciones como la
exponencial, la lognormal, la Weibull o la logística. Existen también modelos
paramétricos específicos, como la relación de Arrhenius, que permiten modelar
procesos en donde la duración de un material depende de la temperatura, que
son usados en problemas de probas aceleradas.
La otra filosofía en la estimación de los modelos de riesgo, la estimación no
paramétrica, no presupone ningún modelo a priori para la distribución, consiste
en dejar que los datos decidan por sí mismos. En este contexto no paramétrico,
los estimadores de Kaplan Meier (Kaplan e Meier 1985) para la razón de fallo, y
el estimador de Nelson-Aalen (Nelson (1972) y Aalen (1978)) para a función de
riesgo acumulado son los más utilizados, presentandomuchas de las propiedades
deseables desde el punto de vista estadístico. Para un estudio con detalle de esta
temática el manual de Mekeer y Escobar (Meeker y Escobar, 1998) representa
un magnífico referente presentando no sólo los conceptos teóricos sino también
una amplísima colección de aplicaciones a datos y problema reales de fiabilidad
industrial en la que los autores tienen una contrastada experiencia. Para la
manipulación de estos datos existen también distintos programas estadísticos
que permiten el tratamiento de datos de fiabilidad, pero es sobre todo el paquete
estadístico SPLIDA (SPlus LIfe Data Analysis) el que cuenta con más adeptos.
SPLIDA es un conjunto de funciones de S-PLUS con una interface gráfica
diseñada para el análisis de datos de fiabilidad. Muchas de estas funciones
están también disponibles para el programa de Software libre R, que se puede
descargar desde la dirección http://cran.es.R-project.org/.
9.5. Principales distribuciones para fiabilidad
9.5.1. Distribución exponencial y Distribución gamma
Como ya se comentó en la sección anterior la distribución exponencial es
una de las más usadas en la modelización de problemas con tiempos de vida.
Se puede definir como la variable = “tiempo entre dos sucesos consecutivos
en un proceso de Poisson". Diremos que tiene distribución exponencial de
PRINCIPALES DISTRIBUCIONES PARA FIABILIDAD 181
parámetro , que denotaremos por ∈ () siendo 0 el número medio
de sucesos que ocurren por unidad de tiempo.
Función de densidad:
() =
½− si 0
0 en otro caso
Función de distribución:
() =
½1− − si 0
0 en otro caso
Características:
() =1
() =1
2
Entre las propiedades de la distribución exponencial es el hecho que se
conoce como que “carece de memoria", es decir,
( + / ) = ( )
Esta propiedad, que facilita en ocasiones los cálculos es también un incove-
niente por lo que no suele ser veráz su aplicación en contextos reales, ya que las
situaciones reales de tiempos de vida que se pretenden modelar la probabilidad
que tiene una unidad de fallar en un determinado tiempo si depende de su
tiempo de vida anterior. Esta propiedad también es patente al observar que su
razón de fallo es constante: la probabilidad de fallar en cualquier intervalo no
depende de la vida anterior.
() =
½ si 0
0 en otro caso
Ejemplo: Si suponemos una batería cuya vida útil se modele con una dis-
tribución exponencial de con media 7 años, se podrían calcular la probabilidad
de que el producto entre 6 y 12 años como:
1− (6 12) = 1−Z 12
6
1
7−7
= 1− −67 + −127 = 1− 002443 = 007557Si lo que se quiere es conocer la probabilidad de que la bateria dure más de
12 años, sabiendo que no sigue funcionando después de los primeros 7 años.
( 12 / 7) = ( 12)
( 7)= −(12−7)7
= −57 = ( 5)
En este ejemplo vemos que se verifica la propiedad de que la distribución
exponencial carece de memoria, es decir, la probabilidad de que la batería
funcione entre los 7 y los 12 años sólo depende de la longitud del intervalo de
tiempo considerado.
182 FIABILIDAD. PRINCIPIOS BÁSICOS
9.5.2. Distribución gamma
Llamaremos función gamma a Γ() =
Z ∞
0
−1−
De la definición se deduce que Γ() = (− 1)Γ(− 1) En particular, si es un entero positivo Γ() = (− 1)!La distribución gamma, que denotaremos por Γ( ), suele utilizarse para
modelizar el tiempo de espera hasta que ocurre el -ésimo suceso de Poisson.
El parámetro representa el número medio de sucesos que ocurren por unidad
de tiempo y es el número de sucesos que queremos que hayan ocurrido.
Función de densidad:
() =
⎧⎨⎩
Γ()−1− si 0
0 en otro caso
Características:
() =
() =
2
Observése que la distribución gamma es una generalización de la distribu-
ción exponencial (la distribución exponencial de parámetro es la Γ( 1)).
Además la suma de exponenciales independientes de parámetro tiene dis-
tribución Γ( )
Por otra parte, cuando es un entero positivo, la distribución gamma se
conoce con el nombre de distribución de Erlang (científico danés que la utilizó
por primera vez para modelizar problemas relacionados con el uso de las líneas
telefónicas). En este caso, la función de distribución tiene la siguiente expresión:
() =
⎧⎪⎨⎪⎩ 1−−1X=0
−()
!si 0
0 si ≤ 0
Ejemplo: Suponiendo que el muro de contención de una presa se romperá
después de sufrir la embestida de una segunda riada. Sabiendo que el número
de riadas por siglo sigue una distribución de Poisson de promedio 2, utilizando
la distribución gamma la probabilidad de que dicho muro dure 20 años, se
tendría:
Sea = "tiempo (en años) hasta la segunda riada", ∈ Γ(2100 2)
( 20) =
Z ∞
20
(2100)2
Γ(2)−50 = 009384
PRINCIPALES DISTRIBUCIONES PARA FIABILIDAD 183
9.5.3. Distribución Normal y lognormal
La distribución normal fue considerada por primera vez por De Moivre en
1733 como límite de la distribución binomial, ( ), cuando → ∞. Sinembargo, este descubrimiento quedó en el olvido y fue redescubierta en el siglo
XIX por Gauss y Laplace al estudiar la distribución de los errores accidentales
en astronomía y geodesia.
La distribución normal o gaussiana es la más importante y de mayor uso de
todas las distribuciones continuas de probabilidad. Existen multitud de exper-
imentos cuyo resultado se ajusta a esta distribución: el peso de un individuo y
su talla, datos meteorológicos, errores de medición, calificaciones de pruebas de
aptitud, etc. Además, como veremos más adelante, la distribución de la suma
de variables aleatorias, en condiciones muy generales, se puede aproximar por
la distribución normal.
Diremos que una variable aleatoria tiene distribución normal de parámetros
, (−∞ ∞ 0) que denotaremos por ∈ ( ) si su función
de densidad es:
() =1
√2
−(− )2
22 si −∞ ∞
Se denomina distribución lognormal a la distribución de una variable cuyo
logaritmo se distribuye normalmente. Si = ln tiene distribución ( ),
la función de densidad de la variable viene dada por:
() =
⎧⎪⎨⎪⎩ 1
√2
1
−(ln − )2
22 si 0
0 en otro caso
La distribución lognormal es especialmente útil para comparar distribu-
ciones asimétricas con variabilidad muy distinta. Esta distribución se utiliza
con frecuencia en ciencias biológicas y físicas como modelo de volumen o peso
de cultivos, colonias de bacterias, etc. También modeliza variables referentes a
rentas de familias, ventas, etc.
9.5.4. Distribución de Weibull
Diremos que una variable aleatoria tiene distribución de Weibull de pa-
rámetros ( 0 0) que denotaremos por ∈ ( ) si su función
de densidad viene dada por:
() =
½−1−()
si ≥ 00 si 0
184 FIABILIDAD. PRINCIPIOS BÁSICOS
Función de distribución:
() =
½1− −()
si ≥ 00 si 0
Características:
() =1
Γ
µ1 +
1
¶
() =1
2
(Γ
µ1 +
2
¶−∙Γ
µ1 +
1
¶¸2)Esta distribución fue propuesta por vez primera en el año 1951 por Wieibull
y sigue a utilizarse para modelizar el tiempo de vida de diferentes materiales.
Su razón de fallo es:
() =
½−1 si ≥ 00 si 0
Obsérvese que la distribución (1 ) es la distribución exponencial
Ejemplo: La duración, medida en años, de una pila tiene una distribución
de Weibull con = 2 y = 3. Calcular la probabilidad de que la pila dure
menos de dos años.
Si al cabo de un año todav’a no se ha agotado la pila, Àcuánto vale la
probabilidad anterior?
La función de distribución de la variable (2 3) es
() =
½1− −(3)
2
si ≥ 00 si 0
Por tanto, la probabilidad de que la duración () de una pila sea inferior
a dos años es
( 2) = (2) = 1− −36
Si al cabo de un año todav’a no se ha agotado la pila, la probabilidad de
que dure menos de dos años es
( 2 1) = (1 2
( 1)=
(2)− (1)
1− (1)=
−9 − −36
−9= 1− −27
9.6. Estimadores no paramétricos de la fiabilidad
En la sección anterior se estudiaron algunos de los modelos paramétricos
para fiabilidad, a diferencia de la estimación paramétrica los estimadores no
paramétricos se basan en la filosofía de "dejar que los datos hablen por si
ESTIMADORES NO PARAMÉTRICOS DE LA FIABILIDAD 185
350 400 450 500 550 600 650
0.0
00
0.0
05
0.0
10
0.0
15
0.0
20
0.0
25
0.0
30
Función de densidad de la tasa de degradación del material dM_dt
Rango del tiempo
De
nsi
da
d d
e p
rob
ab
ilid
ad
Figura 9-1 Funciones de densidad.
186 FIABILIDAD. PRINCIPIOS BÁSICOS
mismos", sin presuponer ningún modelo basado en parámetros. Tienen por
tanto, la ventaja de no necesitar de la suposición de una determinada hipótesis
sobre el tipo de modelo a utilizar y de que sólo necesitan de una muestra de
datos para su implementación.
La estimación más simple de la fiabilidad a partir de los datos es mediante
la función de fiabilidad empírica de la muestra que se definirá por:
b() = #{fallos después del tiempo }
=1
X=1
{}
Esta expresión contempla el caso de tiempos observados, sin censura:
1 2
En el supuesto de presentarse problemas de censura, el estudio necesita de
estimadores especiales como el de Kaplan-Meier o el de Nelson-Aalen.
Cuando se contempla la posibilidad de censura, por ejemplo en el caso más
habitual de censura tipo I habrá que utilizar una adecuada notación para in-
dicar si una observación está o no censurada. Así, si suponemos un determinado
tiempo de censura (podría ser el tiempo hasta que se toman los datos en un
experimento), se puede indicar mediante una varible cuando este tiempo es
mayor o menor que el tiempo de censura, así por ejemplo si el −ésimo tiem-po de fallo sólo es observado si ≤ ; en caso contrario, la observación estará
censurada y sólo se sabrá que . Como cada unidad puede tener un tiempo
de censura distinto por lo que los datos pueden ser convenientemente represen-
tados por los pares (; ), donde = mın( ); siendo = {≤}Al igual que se utiliza esta notación para la censura tipo I o por tiempo se
podría también utilizar la misma notación en el caso de la censura por fallo.
En general, dada la muestra formada por pares ( ),donde denota los
tiempos (o fallos) observados y donde
Dada la muestra formada por pares ( ),donde denota los tiempos
observados y donde , el estimador de Kaplan-Meier de la función de fiabilidad
viene definido por:
b() =
Y
µ1− []
− + 1
¶En donde [] denota el indicador de fallo correspondiente al valor ().
En el caso de la estimación del riesgo acumulado es más eficiente el empleo
del estimador de Nelson-Aalen que viene dado por la siguiente expresión:
b() =
X
µ[]
− + 1
¶En este contexto de la estimación no paramétrica, es habitual utilizar
además de los estimadores puntuales de parámetros de interés como la me-
dia o la varianza, intervalos de confianza para la propia función de fiabilidad.
ESTIMADORES NO PARAMÉTRICOS DE LA FIABILIDAD 187
Entre las propuestas para los intervalos de confianza basados en el estimador
de Kaplan-Meier está el del método lineal que propone la construcción del
siguiente intervalo:
Ãb()− 2
rd ³ b()´ b() + 2
rd ³ b()´!
En donde para la estimación de la varianza se emplea la expresión siguiente:
d ³ b()´=³ b()
´2 X
Ã[]
(− + 1)¡− + 1− []
¢!
También pueden encontrarse estimaciones utilizando otros estimadores, co-
mo el de Nelson-Aalen, con expresiones similares basadas en la propia muestra.
En cualquier caso la mayoría de estas expresiones, y otras más complejas co-
mo las que proporcionan bandas de confianza para las funciones de fiabilidad,
se encuentran programadas en Software específico como puede ser la librería
Survival del paquete R.
9.7. Análisis de los datos de tiempos de fallo en
motores.
Se trata de 9 datos de tiempos de fallo de motores de barco, se realizará el
ajuste de una distribución tipo Weibull estimando los parámetros de forma y
escala, y realizando los contrastes de ajuste oportunos.
tiempos-c(5,8.1,8.4,12.8,14.7,18.8,19.9,24.7,30)
Desde el punto de vista estadístico, llamando al instante en el que falla
una unidad, podemos considerar como una variable aleatoria, y estudiar su
distribución de probabilidad. La función de fiabilidad o supervivencia es una
función decreciente de , que denotaremos por (). Además, si y son las
funciones de densidad y de distribución de probabilidad de la variable aleatoria
, existe la siguiente relación:
() = ( ≥ ) = 1− () = 1−Z
0
()
Analicemos los datos anterioes mediante la estimación de esta variable.
En primer lugar obtenemos algunas características como la media, desviación,
asimetría y curtosis.
mean(tiempos)
188 FIABILIDAD. PRINCIPIOS BÁSICOS
15.82222
sd(tiempos)
8.273116
coeficiente de asimetría=mean((tiempos-mean(tiempos))^3)/sd(tiempos)^3
0.2899931
coeficiente de curtosis=mean((tiempos-mean(tiempos))^4)/var(tiempos)^2
1.597770
Para analizar la variable intentaremos buscar un posible ajuste paramétrico.
En primer lugar veremos si se ajusta a una distribución Normal y luego a una
Weibull.
Para el ajuste normal representamos los datos en gráficos adecuados (his-
tograma con función de densidad, función de distribución empírica/teórica y,
gráfico qq):
Histogram of tiempos
tiempos
Den
sity
5 10 15 20 25 30
0.00
0.03
0.06
5 10 15 20 25 30
0.0
0.4
0.8
ecdf(tiempos)
x
Fn(
x)
5 10 15 20 25 30
010
2030
40
tiemposrwei
bull(
1000
, sha
pe.ti
empo
s, s
cale
.tiem
pos)
Figura 9-2 Histograma, gráfico distribución empírica y gráfica q-q Weibull
Realizando el ajuste a una distribución tipo Weibull resultan una esti-
mación de los parámetros de forma de 2.1790669 (±0.5780406) y de escalade 17.9321569 (± 2.8948782).Nota: Diremos que una variable aleatoria tiene distribución de Weibull
de parámetros ( 0 0) que denotaremos por ∈ ( ) si su
función de densidad viene dada por:
() =
½−1−()
si ≥ 00 si 0
Función de distribución:
() =
½1− −()
si ≥ 00 si 0
ANÁLISIS DE LOS DATOS DE TIEMPOS DE FALLO EN MOTORES. 189
5 10 15 20 25 30
0.0
0.4
0.8
ecdf(tiempos)
x
Fn(
x)
5 10 15 20 25 30
0.0
0.4
0.8
ecdf(tiempos)
x
Fn(
x)
Histogram of tiempos
tiempos
Den
sity
5 10 15 20 25 30
0.00
0.03
0.06
Figura 9-3 Contraste KS para normal y Weibull (rojo).
Características:
() =1
Γ
µ1 +
1
¶
() =1
2
(Γ
µ1 +
2
¶−∙Γ
µ1 +
1
¶¸2)
9.7.1. Estimador no paramétrica de la fiabilidad con el estimador Kaplan-Meier.
En la sección anterior se estudiaron algunos de los modelos paramétricos
para la fiabilidad de los motores, a diferencia de la estimación paramétrica los
estimadores no paramétricos se basan en la filosofía de "dejar que los datos
hablen por si mismos", sin presuponer ningún modelo basado en parámetros.
Tienen por tanto, la ventaja de no necesitar de la suposición de una determi-
nada hipótesis sobre el tipo de modelo a utilizar y de que sólo necesitan de una
muestra de datos para su implementación.
La estimación más simple de la fiabilidad a partir de los datos es mediante
la función de fiabilidad empírica de la muestra que se definirá por:
b() = #{fallos después del tiempo }
=1
X=1
{}
Esta expresión contempla el caso de tiempos observados, sin censura:
1 2
En el supuesto de presentarse problemas de censura, el estudio necesita de
estimadores especiales como el de Kaplan-Meier o el de Nelson-Aalen.
190 FIABILIDAD. PRINCIPIOS BÁSICOS
Cuando se contempla la posibilidad de censura, por ejemplo en el caso más
habitual de censura tipo I habrá que utilizar una adecuada notación para in-
dicar si una observación está o no censurada. Así, si suponemos un determinado
tiempo de censura (podría ser el tiempo hasta que se toman los datos en un
experimento), se puede indicar mediante una varible cuando este tiempo es
mayor o menor que el tiempo de censura, así por ejemplo si el −ésimo tiem-po de fallo sólo es observado si ≤ ; en caso contrario, la observación estará
censurada y sólo se sabrá que . Como cada unidad puede tener un tiempo
de censura distinto por lo que los datos pueden ser convenientemente represen-
tados por los pares (; ), donde = mın( ); siendo = {≤}
Al igual que se utiliza esta notación para la censura tipo I o por tiempo se
podría también utilizar la misma notación en el caso de la censura por fallo.
En general, dada la muestra formada por pares ( ),donde denota los
tiempos (o fallos) observados y donde
Dada la muestra formada por pares ( ),donde denota los tiempos
observados y donde , el estimador de Kaplan-Meier de la función de fiabilidad
viene definido por:
b() =
Y
µ1− []
− + 1
¶
En donde [] denota el indicador de fallo correspondiente al valor ().
0 5 10 15 20 25 30
0.0
0.2
0.4
0.6
0.8
1.0
Figura 9-4 Estimación Kaplan-Meier. Suponiendo un dato censurado (el último).
ANÁLISIS DE LOS DATOS DE TIEMPOS DE FALLO EN MOTORES. 191
9.8. Análisis de los datos de tiempos de fallo en
motores. Problema 2.
Se trata de 20 datos de tiempos de fallo de motores de barco. Al igual que
en el problema anterior se realizará el ajuste de una distribución normal y
Weibull estimando los parámetros correspondientes y realizando los contrastes
de ajuste oportunos.
tiempos-c(2.5,4.1,5.2,6,6.5,7,7.1,8,8.2,10,11,12.8,13.5,14.2,15,17.5,18,20,21,30)
mean(tiempos)
[1] 11.88
sd(tiempos)
[1] 6.88741
mean((tiempos-mean(tiempos))^3)/sd(tiempos)^3
[1] 0.826972
mean((tiempos-mean(tiempos))^4)/var(tiempos)^2
[1] 3.078421
9.8.1. Ajuste de una distribución Normal
En este caso, con los 20 datos, se observa fácilmente que la distribución
normal no se ajusta muy bien:
9.8.2. Ajuste Weibull
Con el programa R mdiante
ajuste.weibull=fitdistr(tiempos,"weibull")
ajuste.weibull
shape
1.881261(±0.320836)scale
13.442968 (±1.689880)
Parece que la distribución Weibull ajuste mejor los datos,
192 FIABILIDAD. PRINCIPIOS BÁSICOS
Histogram of tiempos
tiempos
Den
sity
5 10 15 20 25 30
0.00
0.04
0.08
0 5 10 15 20 25 30
0.0
0.4
0.8
ecdf(tiempos)
x
Fn(
x)
-2 -1 0 1 2
-10
12
Normal Q-Q Plot
Theoretical Quantiles
Sam
ple
Qua
ntile
s
Figura 9-5 Ajuste de los 20 datos de motores a una distribución Normal.
ANÁLISIS DE LOS DATOS DE TIEMPOS DE FALLO EN MOTORES. PROBLEMA
2. 193
Histogram of tiempos
tiempos
Den
sity
5 10 15 20 25 30
0.00
0.04
0.08
0 5 10 15 20 25 30
0.0
0.4
0.8
ecdf(tiempos)
x
Fn(
x)
5 10 15 20 25 30
010
2030
40
tiemposrwei
bull(
1000
, sha
pe.ti
empo
s, s
cale
.tiem
pos)
Figura 9-6 Ajuste de la distribución Weibull a los 20 datos.
194 FIABILIDAD. PRINCIPIOS BÁSICOS
9.8.3. Contrastes de bondad de ajuste
Con objeto de verificar los ajustes realizamos un par de contrastes de bon-
dad de ajuste: el test 2 y el contraste Kolmogorov-Smirnov (test ks).
El test 2 da un p-valor mayor para el caso de la distribución Weibull
(0.622499) siendo confirmado también por el contraste ks:
ks.test(tiempos,"pweibull",shape.weibull,rate.weibull)
One-sample Kolmogorov-Smirnov test
data: tiempos
D = 0.124, p-value = 0.8818
alternative hypothesis: two-sided
Podemos hacer un gráfico de las dos densidades juntas (normal y Weibull)
comparadas con el histograma de la muestra
Histogram of tiempos
tiempos
De
nsi
ty
5 10 15 20 25 30
0.0
00
.02
0.0
40
.06
0.0
8
Figura 9-7 Densidad normal y Weibull (en rojo) con el histograma de los datos.
9.8.4. Estimador no paramétrica de la fiabilidad con el estimador Kaplan-Meier.
Para aplicar el estimador Kaplan-Meier se necesita indicar una variable con
la censura, en este caso, que no tenemos, se indica con todos 1, escepto el dato
ANÁLISIS DE LOS DATOS DE TIEMPOS DE FALLO EN MOTORES. PROBLEMA
2. 195
número 6 que en el problema se presentaba con censura.
0 5 10 15 20 25 30
0.0
0.2
0.4
0.6
0.8
1.0
Figura 9-8 Estimador KM para los 20 datos.
9.9. Fiabiliadad de Sistemas
Existen dos áreas distintas en fiabilidad de sistemas: los sistemas reparables
y los de componentes o unidades reemplazables. En general, el análisis y la
modelización de datos de estas dos áreas requieren de diferentes supuestos
acerca de los datos y de diferentes métodos de muestreo para obtenerlos.
Un sistema será aquel compuesto por un conjunto de dispositivos estruc-
turados según una determinada configuración. Normalmente los sistemas com-
plejos requieren de varias componentes en serie y en paralelo, la estimación de
la fiabilidad conjunta de estos sistemas será la tarea esencial para estudiar el
ciclo de vida.
Entre las alternativas actuales para su estudio de estos sistemas complejos,
está la simulación de los modelos mediante el uso de técnicas de Montecarlo,
el empleo de técnicas de apoyo logístico integrado (ALI), o el uso de la de-
nominada metodología RCM asociada al estudio de la criticidad de los modos
196 FIABILIDAD. PRINCIPIOS BÁSICOS
de fallo y su probabilidad de ocurrencia para estimar el riesgo. Estas acciones
permitirán estimar la fiabilidad del sistema a partir del estudio de los árboles
de los elementos que lo configuran.
Otra filosofía del estudio en la fiabilidad de sistemas es la llamada ARM
(Availability, Reliability yMaintainability). Esta filosofía que engloba la disponi-
bilidad, la fiabilidad y la mantenibilidad, busca mejorar el rendimiento del sis-
tema al tiempo que reduce el alto costo del mantenimiento no programado,
eliminar la pérdida de ingresos causada por mantenimiento no programado,
y escapar de una cultura de mantenimiento reactivo. Para la aplicación de la
técnica ARM será preciso conocer con detalle los diagramas de los sistemas
de fiabilidad y su criticidad. Es esta técnica, sin duda, una solución integral
que es de esperar sea empleada para llevar el mantenimiento preventivo de los
sistemas del buque.
9.9.1. Sistemas en Serie y en parelelo
Un sistema estará compuesto por varias componentes que pueden encon-
trarse conectadas en serie o en parelelo, y normalmente en combinaciones Se-
rie/paralelo/serie. Para el cálculo de la fiabilidad, suponiendo que el hecho de
que una componente es independiente de los demás, se tendrá en cuanta el
concepto de sucesos independientes. En el sentido de que dos sucesos y
se dice que ocurren independientemente uno del otro si la ocurrencia o no de
uno de ellos no influye en la ocurrencia o no del otro. Formalmente, se tiene la
siguiente definición:
Dos sucesos y se dicen independientes si
( ∩) = () ()
o, equivalentemente, () = () si () 0 o bien () = ()
si () 0
La independencia de sucesos puede suponerse en algunas situaciones y de-
ducirse del contexto del problema pero, en general, debe comprobarse exper-
imentalmente. Esta definición de independencia de dos sucesos se generaliza
fácilmente a un número arbitrario de sucesos:
Los sucesos1 2 sonmutuamente independientes si se verifica
que la probabilidad de la intersección de cualquier subconjunto de ellos es igual
al producto de sus probabilidades, esto es,
Ã\
=1
()
!=
Y=1
¡()
¢para índices 1 ≤ (1) (2) · · · () ≤
FIABILIADAD DE SISTEMAS 197
Consideremos un sistema que consta de diez componentes en serie, que
funcionan independientemente, suponiendo que cada uno presenta una proba-
bilidad de fallo de 001 (fiabilidad de 0.99). Calcular la fiabilidad del sistema
(probabilidad de que el sistema funcione correctamente).
Si denominamos al suceso “la componente -ésima funciona correcta-
mente”, donde = 1 10, con () = 099, la fiabilidad del sistema es
(12 10) = 09910 = 0904 38
Para aumentar la fiabilidad del sistema, se deben de conectar en paralelo
las componentes o varios subsistemas.
Así si se tuviesen dos sistemas iguales al descrito anteriormente, y se conec-
tasen en paralelo, la fiabilidad del nuevo sistema. Se podría calculor de la
siguiente forma: llamando el suceso “el sistema funciona correctamente”,
con = 1 2 Dado que () = 0904 38 la fiabilidad del nuevo sistema en
paralelo es
(1 ∪ 2) = 0904 38 + 0904 38− 0904 382 = 0990 86Si conectasen en paralelo tres sistemas como el primero, ¿cuál sería ahora
la fiabilidad del sistema resultante?
La fiabilidad de este sistema es
(1∪2∪3) = 0904 38+0904 38+0904 38−3∗0904 382+0904 383 = 0999 13
Calcular la fiabilidad del sistema representado, sabiendo que las probabil-
idades de fallo de las componentes A, B, C, D y E son 001 002 002 001 y
005 respectivamente, y que éstas funcionan de forma independiente.
E
D
C
B
A
©©©*
©©©*
©©©*
©©©*
©©©*
Si denominamos al suceso “la componente A funciona correctamente”,
(análogamente, y para las otras componentes), la fiabilidad del
sistema resultante será:
(( ∪) ∩ ∩ ( ∪)) = ( ∪) () ( ∪)= 0999 8 ∗ 098 ∗ 0999 5 = 0979 31
ya que:
198 FIABILIDAD. PRINCIPIOS BÁSICOS
( ∪) = 099 + 098− 099 ∗ 098 = 0999 8 ( ∪ ) = 099 + 095− 099 ∗ 095 = 0999 5
Estos cálculos basados en la independencia de sucesos, se pueden trasladar
también al caso en que se cuente con la correspondiente función de distribución
o de fiabilidad
9.9.2. Fiabilidad en serie
En el caso de tener un sistema con componentes en serie cada uno de
ellos con una distribución independientes, la fiabilidad total del sistema ,
será igual al producto de las fiabilidades de las componentes ():
() =
Y=1
()
En el caso de la tasa de fallo total de un sistema en serie (()) coincidirá
con la suma de las tasas de cada componente ():
() =
X=1
()
En el caso de tener un sistema en paralelo, se tendrá:
() = 1−Y=1
(1−())
() =
Y=1
()
Ejemplos: En el caso de tener distribuciones de tipo exponencial para ca-
da componente, con parámetros . En el caso de un sistema en serie de n
componentes independientes se tendrá:
() =
Y=1
() = exp
Ã−
X=1
!= exp(−)
Es decir, un sistema en serie compuesto de elementos exponenciales (tasa
de fallo constantes) tiene también una tasa de fallo constante. Además, si todas
las componentes tienen la misma tasa de fallo , se tendrá:
FIABILIADAD DE SISTEMAS 199
() =
Y=1
() = exp
Ã−
X=1
!= exp(−)
( ) =1
=1
Por ejemplo, según una metodología seis sigma, admitiendo 3.4 fallos por
millón para cada componente de un sistema en serie que debe de durar 1500
horas en funcionamiento, si el sistema está integrado por 10 componentes se
tendrá:
(1500) = exp(−10 ¡34 · 10−6¢ 1500) = 0950 28( ) =
1
=
1
10 (34 · 10−6) = 29412
De estos resultados se deduce que la fiabilidad del nuevo sistema de 10 compo-
nentes pasa a ser del 0.95, y la vida media del sistema sería de 29412 horas.
Si en lugar de 10 componentes el sistema integrara 100 componentes estos
valores se verían seriamente rebajados, en el caso de la fiabilidad total pasa a
0.6, mientras que la vida media se reduce a la décima parte:
(1500) = exp(−100 ¡34 · 10−6¢ 1500) = 0600 50( ) =
1
=
1
100 (34 · 10−6) = 29412
En el caso de un sistema compuesto por distribuciones de Weibull in-
dependientes, con los mismos parámetros de forma y con la posibilidad de
presentar diferentes parámetros de escala se tendrá que el sistema en serie
resultante también tendrá una distribución de Weibull, siendo su razón de fallo:
() =
X=1
() =
X=1
µ
¶−1=
µ
¶−1 0
=
ÃX=1
1
!−1
En el caso que también cada componente tenga el mismo parámetro de
escala la expresión anterior se simplifica, quedando = ¡1
¢
Por ejemplo, en el supuesto de un sistema compuesto por 10 componentes
en serie con distribución de fallo (100 25), que podría representar un sis-
tema de con = 100 mil ciclos de fatiga de un material, donde cuando falla
la primera componente el sistema falla y es reemplazado por otro ya que to-
das las componentes estarían sometidas a la misma tensión. Se tendría que
la distribución del tiempo de fallo del sistema también será ( 25) con
= 100¡10125
¢= 39 811 mil ciclos.
200 FIABILIDAD. PRINCIPIOS BÁSICOS
9.9.3. Fiabilidad en paralelo
En el caso de sistemas cuyas componentes se integren en paralelo. En este
tipo de situciones suele diferenciarse entre redundancia activa y redundancia
secuencial.
Un ejemplo de redundancia activa es aquel en el que todos los elementos
redundantes estarían activos durante la misión, por ejemplo el caso de un buque
que navega con 3 motores activos en el que sólo dos tienen que cumplir con su
misión; cada uno de estos dos motores trabajaría más çargado"que uno de los
tres en funcionamiento normal.
La reduncia secuencial es cuando el elemento redundante sólo entre en juego
cuando falla el elemento primario al que sustituirá, por tanto hasta el fallo del
elemento primario el elemento redundante permanece inactivo. En estos casos
de inactividad del elemento redundante también puede que esté totalmente
inactivo (ejemplo de una rueda de repuesto en un coche) o parcialmente inactivo
o .energizado" (grupo electrogeno de un quirófano de hospital). En todo caso
la diferencia entre la reduncia activa y la secuncial afecto sólo en el hecho
de que en el caso secuencial sería necesario un dispositivo que detecte el fallo
del elemento primario y conmute este con el redundante, pero no afecta a los
cálculos de la fiabilidad total del sistema en paralelo, que como se comentó
anteriormente quedaría:
() = 1−Y=1
(1−())
() =
Y=1
()
En el supuesto de que las n componentes sean idénticas con distribuciones
F(t) cada una, se tendrá que () = 1− ( ())En el caso particular de que el sistema en paralelo esté compuesto por
distribuciones exponenciales con tasas de fallo 1 2 La fiabilidad del
sistema quedará:
() = 1−Y=1
(1− exp(−))
Se puede observar que en este supuesto el nuevo sistema no tendría una
distribución exponencial, en el caso de = 2 se tendrá:
() = 1−(1− exp(−1)) (1− exp(−2)) = exp(−1)+exp(−2)−exp(−(1+2))
En este caso, = 2 la vida media del sistema será:
FIABILIADAD DE SISTEMAS 201
( ) =
Z ∞
0
() =
Z ∞
0
(exp(−1) + exp(−2)− exp(−(1 + 2))) =
=1
1+1
2− 1
1 + 2
En el caso particular en que las componentes además de ser exponenciales
tengan la misma tasa de fallo las expresiones anteriores se simplifican
() = 1− (1− exp(−))
Además para el cálculo de la vida de elementos en paralelo con idéntica
distribución de fallos de tipo exponencial, puede emplearse un método recur-
rente calculando las diferencias entre las vidas medias para n componetes y
para n-1, ya que:
()−(−1) =
Z ∞
0
(()−−1()) =
=
Z ∞
0
¡1− (1− exp(−)) − 1− (1− exp(−))−1¢ = 1
De esta forma recurrente se obtendría una expresión para la vida media en
función del número de componentes del sistema:
() = (−1) +1
(−1) = (−2) +1
(− 1)...
(2) = (1) +1
2
(1) =1
Por tanto:
() =1
+1
2+ · · ·+ 1
Con estas expresiones puede observarse como se aumenta la fiabilidad en
función del número de componentes en paralelo, si bien está el problema del
factor económico.
202 FIABILIDAD. PRINCIPIOS BÁSICOS
9.10. Sistemas reparables
En el caso de que se plantee un programa de mantenimiento se tendrán
que tener en cuenta los tiempos de reparación, reemplazamiento, tiempo entre
fallos, etc.
Normalmente los sistemas reparables contemplan observaciones en un in-
tervalo de tiempo (0 ) en donde suele plantearse que 0 = 0 El interés en
este tipo de problemas se centra en analizar datos recurrentes con objeto de
estimar o predecir ciertos cuantiles como:
districión del tiempo entre reparaciones
número de reparaciones en un intervalo de tiempos dado.
MTBT (tiempo medio entre fallos)
coste medio de reparación en función del tiempo
9.10.1. Modelo noparamétrico para estimar el MCF (Mean Cumulative Function)
Si expresamos por( ) el número total de fallos en un intervalo de tiempo
( ], que para el caso de intervalos del tipo (0 ] podría expresarse por (),
cuya media poblacional () = [()]El siguiente método propuesto por
Nelson (1988) permite estimar esta media para un sistema que esté todavía
funcionando en un tiempo :
1.- Ordenar los tiempos 1 2
2.- Calcular los valores () número de fallos para el sistema i hasta el
tiempo .
3.- Definir () = 1 si el sistema sigue funcionando en el tiempo siendo
() = 0 en otro caso.
4..- Calcular
b() = X=1
⎡⎢⎢⎣P=1
()()
P=1
()
⎤⎥⎥⎦ = 1 2
En Nelson (1995) se dan las expresiones del sesgo y varianza de este esti-
mador lo que posibilita la construcción de intervalos de confianza.
SISTEMAS REPARABLES 203
Figura 9-9 Programa para calcular el ciclo de vida (AWB).
9.10.2. Apuntes sobre el coste del ciclo de vida (LCC)
La estimación del coste ciclo de vida se refiere al cálculo de los costes esper-
ados de su sistema durante su vida útil. Está directamente relacionado con las
predicciones de costes producido por la RCM. Aunque también podría definirse
como las ecuaciones de costos en función del tiempo.
El progama Avsim tiene un módulo LCC que permite a los usuarios definir
los costos del ciclo de vida que no sean los previstos por el RCM. Estos costes
pueden ser integrados con los costes previstos en la estructura de desglose de
costos LCC para proporcionar un análisis en función del tiempo de proceso de
un sistema de costo total del ciclo de vida.
9.10.3. Relación vida útil con curvas de rodaje
Otro enfoque para la estimación del ciclo de vida es el asimilarlo al estudio
de las curvas de rodaje que se utilizan en la industria del automóvil y cuyo
objeto es estimar los kilómetros recorridos por un vehículo sin averias. Las
curvas de rodaje tienen una configuración similar a las curvas OC utilizadas
en control de calidad (que serían la representación de 1 menos la curva de
potencia de un contraste). En el eje de abscisas se representan los kilómetros
y en ordenadas la probabilidad de alcanzarlos para un determinado tiempo de
vida del vehículo.
Ejemplo: Supongamos que queremos analizar una muestra de 60 vehículos
204 FIABILIDAD. PRINCIPIOS BÁSICOS
Figura 9-10 Detalle del programa AWB.
nuevos que se han puesto en circulación a los que se les computan las averías
al cabo de 3 años desde su venta en función de los km recorridos, esto puede
verse en la tabla siguiente:
km =veh/averiados sin averias/total averiados %
0-5000 4 4 50−450
92
5001-10000 9 13 50−1350
74
10001-15000 8 21 50−2150
58
15001-20000 14 35 50−3550
30
20001-25000 10 45 50−4550
10
25001-30000 5 50 0 0
La curva de rodaje para 3 años sería representar los valores de la tabla
anterior como se muestra en la figura.
También se podría ordenar los vehículos (su número de chasis podría ser una
buena etiqueta) por orden creciente de averias (de esta forma podrían repetirse
los vehículos que tuviesen más de una avería), se podrían estimar la cantidad
de averías en cada tramo kilométrico permitiendo extraer una tasa de fallos sin
más que hacer el cociente entre la cantidad de averias y el número de vehículos
funcionando sin fallos en ese tramo, esta estimación tendría una interpretación
similar a la tasa de fallo (()). Aunque no es exactamente una estimación de
la tasa de fallo si se podría comparar si se propone como cumplimiento de la
misión que el vehículo esté funcionando en un determinado kilometraje.
Para la estimación del coste del ciclo de vida habrá que introducir una
relación de coste en euros en función del tiempo o del kilometraje recorrido.
También sería necesario diferenciar entre los fallos por su importancia.
SISTEMAS REPARABLES 205
0
10
20
30
40
50
60
70
80
90
100
0 5000 10000 15000 20000 25000 30000 3
P(km)
km
Curva de rodaje
Figura 9-11 Curva de Rodaje para 3 años de vida.
206 FIABILIDAD. PRINCIPIOS BÁSICOS
10. MODELOS DE DEGRADACIÓN Y
TEST DE VIDA ACELERADA
Frecuentemente, las pruebas de fiabilidad deben realizarse con restricciones
severas de tiempo y no ocurren fallos durante tales pruebas. Así es difícil evaluar
la fiabilidad con pruebas de vida tradicionales que registren únicamente tiempos
de fallo. Para algunos componentes pueden tomarse medidas de degradación
respecto al tiempo. Una relación entre el fallo del componente y la cantidad
de degradación hace posible el uso de modelos de degradación y con los datos
permite hacer inferencias y predicciones sobre el tiempo de fallo.
10.0.4. Estimación de la distribución
Un modelo especificado para D(t) y Df define una distribución del tiempo
de fallo. En general, esta distribución puede escribirse como una función de los
parámetros del modelo de degradación.
Suponga que una unidad fallo en el instante t si el nivel de degradación
alcanza primero Df en el instante t. Entonces
() = ( ≤ ) = ()
Falta****
10.1. Pruebas de vida aceleradas (ALT)
El propósito principal del proceso de una prueba acelerada es alcanzar la
mejora de la fiabilidad tan pronto como sea posible. Ya que no conocemos la
naturaleza precisa de las debilidades futuras de un producto, debemos recurrir
a la aplicación de un surtido variado de esfuerzos. La suposición básica es que
sometiendo un producto a esfuerzo elevado provocará que las fallos ocurran
más rápidamente. Un ejemplo clásico de esto es una reacción química, donde
se ha encontrado que la tasa de reacción se incrementa exponencialmente con
la temperatura (de acuerdo con la relación de Arrhenius). Por tanto, la prueba
acelerada puede considerarse como una herramienta de productividad, un gran
número de fallos ocurrirá en un tiempo más corto.
Pruebas de Vida Acelerada (ALT) : Uno obtiene información sobre el tiem-
po de fallo (tiempo actual de fallo o un intervalo que contiene el tiempo de
MODELOS DE DEGRADACIÓN Y TEST DE VIDA ACELERADA 207
fallo) para unidades que fallaron y límites inferiores para el tiempo de fallo de
las unidades que no fallaron.
Pruebas de Degradación Acelerada (ADT) : Uno observa en uno o más
puntos en el tiempo, la cantidad de degradación para las unidades (tal vez con
un error de medición).
10.1.1. Métodos de aceleración
Incremento de tasa de uso del producto. Considerar la fiabilidad de un
tostador, que está diseñado para una mediana de 20 años como tiempo de
vida, asumiendo una tasa de uso de 2 veces por día. Si, en su lugar, probamos
el tostador 365 veces al día, podemos reducir la mediana del tiempo de vida a
alrededor de 40 días. También, ya que no es necesario que todas las unidades
en una prueba fallen, información útil sobre la fiabilidad puede obtenerse en
cuestión de días en lugar de meses.
Incremento de tasa de envejecimiento del producto. Por ejemplo, incremen-
tando el nivel de variables experimentales como la temperatura o humedad
puede acelerar el proceso químico de ciertos mecanismos de fallo, tales como
degradación química (dando por resultado una debilidad eventual y fallo) de
un adhesivo en una unión mecánica o el crecimiento de un filamento conductor
a través de un aislante (causando eventualmente un corto circuito).
Incremento del nivel de esfuerzo. (ciclo de temperatura, voltaje o presión)
bajo el cual operan las unidades de prueba. Una unidad fallará cuando su
RESISTENCIA caiga por debajo del esfuerzo aplicado. Así una unidad a alto
nivel de esfuerzo generalmente fallará más rápidamente que como habría fallado
a bajo esfuerzo.
También pueden emplearse combinaciones de estos métodos de aceleración.
Variables como voltaje y ciclo de temperatura pueden incrementar la tasa de
una reacción electromecánica (acelerando así la tasa de envejecimiento) e in-
crementar el esfuerzo relativo a la resistencia. En tales situaciones, cuando el
efecto de una variable aceleradora es complicado, puede no existir suficiente
conocimiento físico para proporcionar un modelo físico adecuado para la acel-
eración (y extrapolación). Modelos empíricos pueden o no ser útiles para la
extrapolación en condiciones de uso.
La Prueba de Vida acelerada, a diferencia de la Prueba de Tortura, está
diseñada para proveer información de la fiabilidad del producto, componente
o sistema
Un Dato básico es el Tiempo para fallar El tiempo para fallo puede estar
en cualquier medida cuantitativa, tal como: horas, días, ciclos, actuaciones, etc.
El fallo se puede deber a la fatiga mecánica, corrosión, reacción química,
difusión, migración, etc.
Estos son exactamente los mismos eventos conducentes a un fallo en esfuer-
zos mayores que en esfuerzos normales. Sólo cambia la escala del tiempo.
208 MODELOS DE DEGRADACIÓN Y TEST DE VIDA ACELERADA
Un Factor de Aceleración es el multiplicador constante entre los dos niveles
de esfuerzo.
Cuando hay verdadera aceleración, cambiar los esfuerzos es equivalente a
transformar la escala del tiempo usada para registrar cuando ocurren los fallos.
Las transformaciones usadas comúnmente son lineales, lo que significa que
el tiempo para fallar en un esfuerzo alto sólo tiene que ser multiplicado por
una constante (el factor de aceleración) para obtener el tiempo equivalente de
fallo en el esfuerzo de uso.
Relaciones Lineales de Aceleración
Tiempo de fallo = Probabilidad de fallo () = ( )
fiabilidad () = ( )
PDF o Función de Densidad () = (1 )( )
Tasa de fallo () = (1 )( )
Donde:
tu: tiempo de fallo en uso ts: tiempo de fallo en esfuerzo
Fu(t): CDF en uso Fs(t): CDF en esfuerzo
fu(t): PDF en uso fs(t): PDF en esfuerzo
lu(t): tasa de fallo en uso ls(t): tasa de fallo en esfuerzo
AF: Factor de Aceleración
Una consecuencia de las relaciones lineales es que
El Parámetro de Forma para los modelos clave de distribución de vida
(Weibull y Lognor
Las Gráficas en escala de Probabilidad de los datos de diferentes condiciones
de esfuerzo se alinearán aproximadamente paralelas.
Los modelos de Aceleración predicen el tiempo de fallo en función del es-
fuerzo
Los factores de aceleración muestran como el tiempo de fallo de un nivel
particular de esfuerzo (para un modo o mecanismo de fallo) puede ser usado
para predecir el tiempo equivalente de fallo en un nivel diferente de esfuerzo.
Un modelo que predice el tiempo de fallo como función del esfuerzo debiera
ser mejor que una colección de factores de aceleración. Si escribimos tf =G(S),
donde G(S) es la ecuación del modelo para un valor arbitrario de S, entonces el
factor de aceleración entre los esfuerzos S1 y S2 puede evaluarse simplemente
por:
= (1)(2)
Ahora se puede probar en el nivel de esfuerzo más alto S2, obtener un
número suficiente de fallos para ajustar al modelo de distribución de vida y
evaluar las tasas de fallo. Después se usa la Tabla de Relaciones Lineales de
Aceleración para predecir lo que pasará en el nivel de esfuerzo menor S1.
Los modelos de aceleración se derivan a menudo de modelos físicos o cinéti-
cos relacionados con el modo del fallo
PRUEBAS DE VIDA ACELERADAS (ALT) 209
Un modelo que predice el tiempo de fallo como función de los esfuerzos de
operación se conoce como Modelo de Aceleración.
Se presentarán varios modelos útiles:
Arrhenius
Eyring
Regla de Potencia Inversa para Voltaje
Modelo exponencial de Voltaje
Modelos de Dos: Temperatura / Voltaje o Temperatura/Humedad
Modelo de Electromigración (Temperatura y Densidad)
Modelos de tres esfuerzos (Temperatura, Voltaje y Humedad)
Modelo Coffin-Manson de Crecimiento de Fracturas Mecánicas
10.1.2. El Modelo de Arrhenius
El Modelo de Arrhenius predice la aceleración de las fallos debido al au-
mento de temperatura
Uno de las primeras transformaciones y la de más éxito para predecir como
varía el tiempo de fallo con la temperatura.
= exp
µ4
¶ = exp
µ4
∙1
1− 1
2
¸¶Donde: = Factor de Aceleración
= temperatura ◦K (273.16+◦C) = Constante de Boltzmann (8.617E-05 eV/K)
4 = Energía de Activación del Modo de fallo (eV)
= Constante de escala (se elimina en AF)
4 determina la pendiente del factor de aceleración con la temperatura.
Una 4 pequeña caracteriza una tasa de fallo que no es fuertemente de-
pendiente de la temperatura. 4 ≥ 01 significa fuerte dependencia de la
temperatura.
210 MODELOS DE DEGRADACIÓN Y TEST DE VIDA ACELERADA
11. DISEÑOSDEEXPERIMENTOSPARA
CALIDAD Y FIABILIDAD
11.1. Introducción
El diseño de experimentos es una herramienta estadística que surge en el
año 1925 con R. A. Fisher, quien lo aplicó a problemas agrícolas. Hoy es im-
prescindible en cualquier estudio experimental, así, los resultados que se logren
de un experimento bien diseñado siempre serán más fiables que otros que se
hayan obtenido sin tener en cuenta diseño alguno, o utilizando uno erróneo.
Puesto que la investigación empírica es un proceso de aprendizaje dirigido, el
objeto del diseño de experimentos es hacer que este proceso sea lo más eficiente
posible.
La metodología del Diseño de Experimentos estudia cómo variar delibera-
damente las condiciones habituales de un proceso empírico para aumentar la
probabilidad de detectar cambios significativos en la respuesta y obtener así
un conocimiento más profundo sobre el comportamiento de la respuesta.
La experimentación tiene por objetivo forzar, artificialmente, la aparición de
circunstancias “extrañas” en presencia de personas preparadas para interpretar
y extraer conclusiones de lo que ocurre. Al intentar aprender de los procesos
industriales se usa el diseño de experimentos en el diseño y mejora de productos
y de procesos.
El problema básico del diseño de experimentos está en decidir qué conjunto
de pruebas pondrán de manifiesto los aspectos de interés del problema.
11.2. Conceptos básicos
Existen una terminología propia del diseño de experimentos, se define a
continuación los conceptos básicos de esta disciplina:
Variable Respuesta es aquella variable que interesa medir con el exper-
imento. Normalmente estudiaremos una sola respuesta por experimento,
si bien, en la práctica, es frecuente el estudio de varias respuestas por
cada diseño.
Fuentes de variación es cualquier “cosa” que puede producir variabili-
dad en la respuesta. Dentro de estas fuentes de variación distinguiremos
DISEÑOS DE EXPERIMENTOS PARA CALIDAD Y FIABILIDAD 211
entre aquellas cuyo efecto sobre la respuesta interesa ser controlado (fac-
tores tratamiento) y aquellas que no son de interés directo pero que se
contemplan en el diseño con objeto de reducir la variabilidad no plani-
ficada (factores “nuisance”). Dentro de los factores nuisance se pueden
distinguir distintos niveles que en ocasiones conviene agrupar en un factor
bloque. Otras veces son tratados de forma independiente como covariables.
Tratamientos son las distintas condiciones experimentales que se desean
comparar. En el caso de un diseño factorial los tratamientos serán los
distintos niveles y sus combinaciones.
Unidades experimentales serán la muestra sobre la que se valoran los
factores. En el caso en que todos los tratamientos son asignados a un
número igual de unidades experimentales se llamará diseño equilibrado o
balanceado.
Tamaño de un experimento es el número total de observaciones recogi-
das en el diseño.
Dentro de los factores nuisance se pueden distinguir distintos niveles que
en ocasiones conviene agrupar en un factor bloque. Otras veces son tratados
de forma independiente como covariables.
El problema del estudio de la respuesta está en determinar las causas de
variabilidad. Esta variabilidad puede agruparse en:
• Variabilidad sistemática y planificada.
• Variabilidad típica de la naturaleza del problema (error de medida)
• Variabilidad sistemática y no planificada: produce conclusiones erró-
neas, variación sistemática de los resultados. Se evita aleatorizando o creando
variables bloque.
En el caso de la medicina, los pacientes son las unidades experimentales
y los fármacos son los tratamientos; en experimentos agrícolas las unidades,
muchas veces, son las partes de tierra en las que se dividen las fincas y los
tratamientos, pueden ser, la aplicación de distintas variedades de trigo, de
pesticidas, de abono, etc. Hoy en día, las técnicas de diseño de experimentos
se emplean en procesos de optimización industrial, en medicina, en química o
en ciencias sociales.
11.3. Principios básicos de un diseño
Existen tres principios que deben ser tenidos en cuenta a la hora de plani-
ficar cualquier experimento:
1. Principio de aleatorización.
2. El bloqueo.
212 DISEÑOS DE EXPERIMENTOS PARA CALIDAD Y FIABILIDAD
3. La factorización del diseño.
Principio de aleatorización: Aquellos factores no controlados por el ex-
perimentador deben ser asignados al azar. El objeto de la aleatorización es
convertir la variabilidad sistemática no planificada en ruido aleatorio, por tan-
to, evita sesgos en el experimento y permite la validación de muchos de los
procedimientos estadísticos más comunes.
Principio de bloqueo: Consiste en dividir o particionar las unidades ex-
perimentales en grupos llamados bloques, de modo que en cada bloque el ex-
perimento se realice bajo condiciones lo más iguales posibles. La ventaja de
bloquear está en convertir la variabilidad sistemática no planificada en vari-
abilidad sistemática planificada.
Principio de factorización: Un diseño factorial consiste en cruzar los niveles
de todos los factores tratamiento de todas las formas posibles. Tiene la ventaja
de detectar posibles interacciones entre los niveles.
Ejemplo 11.1 Se quiere averiguar si tres aceros distintos A, B y C producen
diferencias significativas en cuanto a su resitencia a la tracción. Para este fin
se eligieron al azar 5 muestras de cada tipo de acero al que se sometió a una
prueba de laboratorio. En la tabla siguiente se recogen los valores obtenidos en
unidades Rc (se han ajustado al valor entero más próximo).
39 33 39 35 32
36 40 35 30 29
33 33 36 26 35
Se trata de un diseño en el que la respuesta es la resistencia a la tracción
y los factores serán las tres tipos de acero. Además puesto que se han aleato-
rizado todas las pruebas realizadas, formará parte de un diseño completamente
aleatorizado.
11.4. Etapas de un diseño
Podemos señalar las siguientes etapas en la realización de un diseño tipo:
1. Fijar objetivos: confeccionar una lista de cuestiones concretas a las que
debe dar respuesta nuestro experimento.
2. Elegir las variables: identificar las posibles fuentes de variación en
la respuesta (factores tratamiento y sus niveles, unidades experimentales y
factores bloque o covariables)
3.Elegir el tipo de diseño: asignar las unidades experimentales que se ob-
servarán bajo cada tratamiento. Diseño factorial o no, bloquear, anidamiento,
etc...
ETAPAS DE UN DISEÑO 213
4. Ejecutar un experimento piloto: es útil partir de un primer exper-
imento que sólo involucre un número pequeño de observaciones para detectar
posibles problemas en el proceso de toma de datos.
5. Especificar un modelo matemático: explicitar una relación mate-
mática entre la variable respuesta y las principales fuentes de variación.
6. Determinar el tamaño muestral: existen, dependiendo del modelo,
algunas fórmulas que nos indican el número de observaciones que se deben
tomar para alcanzar los objetivos del experimento.
7. Analizar e interpretar los resultados: esquematizar los pasos del
estudio estadístico que dependerá de los objetivos marcados en el paso 1.
8. Planificar nuevos experimentos si es necesario.
Ejemplo de la dureza del acero: Un caso sencillo sería aquel en el que
sólo tenemos un factor, la temperatura que influye en la dureza de un acero
(respuesta). Para este experimento se utilizaron muestras de acero, que fue
calentado a distintas temperaturas (niveles) para después revenirlo en agua y
someterlo a una prueba de dureza en el laboratorio con una máquina denomi-
nada penetrador. Este instrumento tiene un cono de diamante con un ángulo
en el vértice de 120 y soporta una carga de 150 kg. La resistencia del acero se
midió en Rockwell C.
Los pasos a seguir para el diseño son:
1. Fijar objetivos: investigar cómo afectan la temperatura y el tiempo
en la dureza del acero. En este caso supondremos que tenemos dos tipos I y II.
2. Elegir las variables: las variables a medir son la respuesta (dureza),
tipo de acero (I y II) y los factores temperatura con 6 niveles distintos (Temple,
150C, 250C, 350C, 450C, 550C).
3. Elegir el tipo de diseño: las unidades experimentales que se obser-
varán bajo cada tratamiento serán las distintas probetas de acero seleccionadas
de planchas producidas en una factoría. Además, se tuvieron en cuenta como
factores nuisance las máquinas que determinan la dureza, el material experi-
mental, la temperatura ambiente y los operarios. Se consideró interesante agru-
par en bloques cada operario con una determinada máquina. Finalmente se
optó por un diseño en bloques completamente aleatorizados, que veremos más
adelante.
4. Ejecutar un experimento piloto: en un primer experimento se observó
que no se debía de incluir como factor nuisance la temperatura ambiente.
5. Especificar un modelo matemático: se observó que la dureza del acero
seguía un modelo lineal del tipo: Dureza = Constante + Efecto Tratamiento
+ Efecto Bloque + error.
6. Determinar el tamaño muestral: en este caso, por tratarse de un
diseño en bloques completamente aleatorizados, el número de experimentos es
36.
7. Analizar e interpretar los resultados: esquematizar los pasos del es-
tudio estadístico que dependerá de los objetivos marcados en el paso 1.
8. Planificar nuevos experimentos si es necesario.
214 DISEÑOS DE EXPERIMENTOS PARA CALIDAD Y FIABILIDAD
11.5. El ANOVA con un factor para diseño de
experimentos
11.5.1. Diseño completamente aleatorizado
Un diseño se dirá completamente aleatorizado si se asignan al azar las
unidades experimentales a los tratamientos, siendo el modelo matemático:
= +_+
Para conseguir la aleatorización se puede hacer uso de una tabla de números
aleatorios o bien generarlos con calculadora o con un ordenador. Si tenemos un
total de I tratamientos, de los que representa el número de unidades experimen-
tales que reciben el −ésimo tratamiento, se pueden codificar los tratamientosde 1 a I y etiquetar las unidades experimentales de 1 a n. A continuación se
crean dos columnas una con unos, doses, I’es y otra con n números aleatorios.
Finalmente se reordenan ambas columnas de modo que los números aleatorios
se reubiquen en orden ascendente y se asigna la etiqueta k al tratamiento de
la fila k-ésima.
En el problema de la dureza del acero, si queremos analizar la temperatura
sobre un tipo de acero, podemos aleatorizar las muestras (unidades experimen-
tales) con respecto a los tratamientos (diferentes niveles de la temperatura de
Temple, 150C, 250C, 350C, 450C, 550C). En este caso I es 6, y los dis-
tintos serán las probetas sobre las que se realizan las medidas. En un primer
paso puede interesarnos comprobar que existe una diferencia entre la dureza
del acero para las distintas temperaturas y que además la varianza dentro de
cada temperatura no es significativa. Este contrate se resuelve mediante el
ANÁLISIS DE LA VARIANZA (ANOVA) que veremos a continuación.
El ANÁLISIS DE LA VARIANZA o ANOVA (ANalysis Of VAriance ) fue
inventado por Ronald A. Fisher con objeto de descomponer la variabilidad de
un experimento en componentes independientes que puedan asignarse a causas
distintas. Esta técnica hoy en día se usa para comprobar si varias muestras
proceden o no de la misma población, o para averiguar si las medias de difer-
entes variables pueden suponerse iguales.
Ronald A. Fisher, que en 1925 se encontraba al cargo de la estación agrícola
experimental de Rothamsted en Londres, quería averiguar si distinta cantidad
de fertilizante ejercía alguna influencia en la cosecha. Para este estudio parceló
el terreno, asignando, al azar, una cierta cantidad de fertilizante a cada parcela.
Era, por tanto, un experimento con un factor (fertilizante) y una respuesta
(cosecha obtenida)
Aunque en un principio el ANOVA nace ligado a experimentos agrícolas su
uso se ha extendido a diversos campos de la ciencia. Así si queremos comparar
4 máquinas A, B, C y D, (en general podríamos tener I máquinas) de las
EL ANOVA CON UN FACTOR PARA DISEÑO DE EXPERIMENTOS 215
cuales se mide una respuesta, que puede ser la producción diaria. Si medimos
su producción durante días en la máquina −ésima. El objetivo del ANOVAes doble, por un lado comparar si todas las máquinas son idénticas respecto a
la producción media diaria y por otro, en el caso de no ser iguales, estimar la
producción media diaria da cada una.
La expresión matemática se puede poner:
= + = + +
Donde es la variable respuesta, que representa la respuesta en la -
ésima observación del -ésimo tratamiento. es la respuesta real del -ésimo
tratamiento, que se puede reparametrizar expresandola como suma de una
constante y una desviación . representa el error experimental.
Para examinar las diferencias entre los tratamientos equivale a examinar
las diferencias entre los parámetros o entre
Modelo ANOVA con un factor
El ANOVA de un factor parte de muestras aleatorias e independientes
procedentes de distribuciones normales con la misma varianza, cada una de
tamaño , con . Si es una observación de la variable respuesta del valor
-ésimo de la muestra -ésima. Se establece el contraste de hipótesis de si las
medias de las I distribuciones son la misma (Hipótesis Nula) o si al menos
una de las medias es distinta de las demás. De hecho, esta prueba es una
generalización del contraste de dos medias.El análisis de la varianza
En esta sección se expone como descomponer la variabilidad de la variable
de interés cuando se ajusta un modelo de regresión múltiple.
Tabla ANOVA. El contraste conjunto de la F
En cada observación muestral se puede hacer la siguiente descomposición¡ −
¢=³ −
´+³ −
´ = 1 2
En base a las propiedades geométricas del modelo se obtiene
()z }| {X=1
¡ −
¢2| {z }
=−1
=
()z }| {X=1
³ −
´2| {z }
=
+
()z }| {X=1
³ −
´2| {z }
=−(+1)
De esta igualdad se construye la siguiente tabla ANOVA
216 DISEÑOS DE EXPERIMENTOS PARA CALIDAD Y FIABILIDAD
Tabla ANOVA del modelo de regresión múltiple
Fuentes de Suma de Grados de Varianzas
Variación Cuadrados libertad
Por la recta =P
=1
³ −
´2 2 =
Residual =P
=1
³ −
´2− ( + 1) 2 =
− ( + 1)Global =
P
=1
¡ −
¢2− 1 2 =
− 1
De esta tabla ANOVA se deduce el siguiente contraste acerca de la influencia
“conjunta” del modelo de regresión en la respuesta .
• Contraste de regresión múltiple de la F.Se desea resolver el siguiente contraste (contraste conjunto de la F):
≡½
0 ≡ 1 = 2 = = = 0
1 ≡ algún 6= 0 para algún
Si 0 es cierto ninguna de las regresoras influye en la respuesta (el modelo
no influye). En este supuesto se verifica que
≈ ⇒ ≈ 0
pero es una medida absoluta (dimensionada) no vale como medida de
discrepancia. Por ello se compara con la varianza residual y resulta el siguiente
estadístico del contraste
=22
(11.1)
Bajo 0 y por la hipótesis de independencia se obtiene que sigue una
distribución con y − ( + 1) grados de libertad (contraste de la ),
|0=
22∼ −(+1) (11.2)
De (11.2) se deduce que − del contraste es
− = ³−(+1) ≥
´
donde −(+1) denota una variable aleatoria que sigue una distribución
con y − ( + 1) grados de libertad. El contraste de la es unilateral (de
una cola).
Si el valor crítico ( − ) del contraste es grande (mayor que el nivel
de significación ) se acepta 0 que el modelo de regresión no es influyente y
debe buscarse un modelo alternativo.
EL ANOVA CON UN FACTOR PARA DISEÑO DE EXPERIMENTOS 217
Ejemplo 11.2 En el caso de los tres tipos de acero el diseño se puede estu-
diar como un ANOVA de un factor. La idea es contrastar la hipótesis nula de
igualdad de efectos medios de los 3 aceros, frente a la alternativa de no ser los
3 iguales:
0 : = =
La tabla del ANOVA para este ejemplo es:
=P
=1
2− 2
− 1
−1
= − − −
(−1)(−)
=P
=1
P=1
2 − 2
− 1
En este ejemplo el número de observaciones realizadas de cada tratamiento
es = 5 = 1 2 3, y el número total de observaciones es =P
=1
=
5 + 5 + 5 = 15
La suma de cuadrados debida al tipo de acero (A, B y C) es:¯¯ 39 33 39 35 32
36 40 35 30 29
33 33 36 26 35
¯¯ 178170163
=
X=1
2− 2
=1782
5+1702
5+1632
5− 511
2
15= 22533
=
X=1
X=1
2 − 2
= 392 + 332 + · · ·+ 352 − 511
2
15= 208933
= − = 208933− 22533 = 1864Los cuadrados medios correspondientes a cada fuente de variación se de-
termina dividiendo cada suma de cuadrados entre sus grados de libertad. A
continuación se puede hallar el valor del estadístico del contraste:
b = ( − 1)(− )
=225332
186412= 0725
Despues de buscar el p-valor en las tablas de la F y puesto que el p-valor
es 0.504 no hay motivos para rechazar la hipótesis nula. Al no rechazarla no
tiene sentido seguir con más pruebas.
Debido a que el modelo ANOVA exige las hipótesis de normalidad de los
datos, igualdad de varianzas en cada muestra e independencia, deben verifi-
carse estas hipótesis mediante los contrastes oportunos: Kolmogorov-Smirnov,
Barlett y contraste de residuos respectivamente.
El modelo ANOVA de un factor se puede generalizar a más de un factor.
218 DISEÑOS DE EXPERIMENTOS PARA CALIDAD Y FIABILIDAD
Contrastes individuales de la F
El test de hipótesis dado en (??) para contrastar la influencia individual
de la variable se resuelve a partir de la distribución del estimador (con-
traste individual de la ), pero también puede hacerse por medio de una tabla
ANOVA, estudiando el incremento que se produce en la suma de cuadrados
explicada por el modelo () al introducir la variable en el modelo.
Para ello, si se quiere contrastar la influencia de la variable se ajusta el
modelo de regresión completo con las variables regresoras y se calcula la suma
de cuadrados explicada por el modelo (()) A continuación, se ajusta el
modelo de regresión con −1 variables, todas excepto la variable Se calculala suma de cuadrados explicada por este modelo ( ( − )) y se define la
suma de cuadrados incremental debida a como
4 () = ()− ( − ) ≥ 0 (11.3)
El valor 4 () indica el aumento de la variabilidad explicada por el
modelo al introducir la variable
Para contrastar la influencia individual o no de se realiza el contraste
≡½
0 ≡ = 0
1 ≡ 6= 0
¾ = 0 1
Se puede resolver este contraste utilizando el estadístico
=
4 ()
12 ()
= 0 1 (11.4)
Bajo la hipótesis nula se verifica que sigue una distribución con 1 y
− ( + 1) grados de libertad (contraste individual de la ).
|0∼ 1−(+1) = 0 1 (11.5)
Si 0 es cierto, 4 () ≈ 0 y toma valores pequeños. Este contraste
es unilateral y el − del contraste es
− = ³1−(+1) ≥
´ = 0 1
Ejemplo 11.3 Con los datos del ejemplo ??, los valores de 4 () son,
respectivamente, 636×106 y 920×107. Como el valor de 2 = 999×107346 =2887 3 × 105, los valores de los estadísticos de los contrastes individuales son2203 y 31869, respectivamente, que proporcionan ambos unos -valores iguales
a cero, es decir, que ambas variables influyen, individualmente, en la variable
respuesta.
EL ANOVA CON UN FACTOR PARA DISEÑO DE EXPERIMENTOS 219
Este contraste proporciona exactamente el mismo resultado (−) queel contraste individual de la . Sin embargo este método presenta la ventaja
adicional de poder utilizarse para contrastar la influencia de un subconjunto de
variables explicativas, con ≤ {1 2 } En este caso el estadísticodel contraste es
=
4 ()
2 ()
∼ −(+)
11.6. Diseños factoriales
Con el objeto de estudiar el comportamiento de materiales a la fatiga o
realizar comparaciones entre distintas características de calidad son de gran
uso en la industria diseño de tipo factorial. Este tipo de diseños se basan en
planificar los experimentos de forma que se pueda determinar el efecto de cada
factor y cada una de las maneras en que ese factor se puede ver modificado por
la influencia de los demás factores, combinándose cada nivel de cada factor con
todos los niveles de los restantes.
Estos diseños presentan la ventaja de requerir una cantidad mínima de
pruebas por factor, y puede servir como experimento base para posteriormente
hacer una mayor exploración de los datos. Tienen además, la ventaja de ser
sencillos de construir y analizar, proporcionan estimaciones de los efectos de
las variables y de sus interacciones y permiten experimentar en todas las com-
binaciones de variables y niveles.
La desventaja de este diseño es que requiere un gran número de experimen-
tos, inconveniente que se resuelve utilizando sólo dos niveles por factor o, como
veremos en el próximo tema, por medio de diseños factoriales fraccionales.
En estos diseños es muy importante el efecto que un factor puede tener
combinado con otro en la respuesta, a este efecto se denomina interacción. Por
ejemplo, en el caso de combinar un medicamento, como la aspirina, con alguna
bebida alcohólica, es conocido el efecto contrario de cara al bienestar producido.
Cada factor por separado provoca sobre el paciente (unidad experimental) un
efecto de euforia (alcohol) unido a uno de bienestar (aspirina), sin embargo la
ingesta de los dos suele provocar somnolencia y mareo. Por tanto, no se suman
los efectos sino que interaccionan.
Este fenómeno de interacción ocurre con frecuencia en experimentos indus-
triales provocando paradojas que son resueltas con un diseño bien planificado.
220 DISEÑOS DE EXPERIMENTOS PARA CALIDAD Y FIABILIDAD
11.7. Factoriales completos
En los diseños factoriales completos el número de experimentos queda de-
terminado por el número de variables utilizadas y por el número de niveles
en cada variable. En este tema trabajaremos con diseños factoriales a 2 nive-
les, con lo que el número de experimentos será 2, por este motivo, se conocen
también como diseños 2. En el supuesto de considerar 4 variables tendríamos
que realizar 16 experimentos.
Estos diseños se realizan haciendo uso de una matriz de tantas columnas
como factores en la que se van situando las distintas combinaciones de nive-
les. Esta matriz se denomina matriz del diseño. Para su construcción se van
ordenando los niveles de cada factor, conocido el número de experimentos a
realizar, para el primer factor se van alternando signos - y + (o también -1
y +1) hasta completar todas las filas, para el segundo factor se alternan dos
signos — y dos + (o bien dos —1 y dos +1) hasta completar todas las filas, para
el tercero cuatro - y cuatro +, para el cuarto 8 signos — y 8 +, y así suce-
sivamente hasta completar los factores. Esta construcción, que se denomina
orden estándar, tiene la ventaja de combinar todos los factores sin omitir ni
repetir ningún valor. Además, con este orden, resulta muy sencillo determinar
los efectos de las variables.
En el supuesto de querer medir la variabilidad es conveniente realizar varios
experimentos en cada condición experimental que se denominarán réplicas. Las
réplicas reducen el efecto de la variabilidad en la respuesta; en la práctica, se
considera la media de las réplicas como única respuesta procediendo con el
cálculo de los efectos como si sólo se hubiese experimentado una vez en esas
condiciones y el resultado fuese esa media.
Ejemplo 11.4 Supongamos que deseamos estudiar la fatiga de un material
compuesto de resina epoxi-carbono. Partiendo de otros estudios sobre este tipo
de material, se tomó la decisión de medir en laboratorio probetas de este mater-
ial en el que como factores se consideren la inclinación de las fibras de carbono
(tomando dos posibles niveles: a 0 y a 90), otro factor de interés fue el grosor
de las probetas (utilizando dos niveles: un primer laminado con 46.6% de fi-
bra de carbono y un segundo laminado con un 49% de fibra); finalmente, otro
factor a tener en cuenta fue el someter el compuesto a un postcurado o no
someterlo, este postcurado se realizó en una estufa de laboratorio. La respuesta
que se midió fue el número de deformaciones hasta la rotura de cada probeta,
para lo cual se someten las unidades experimentales a un análisis mecanod-
inámico (las muestras se someten a una deformación senoidal y se mide el
esfuerzo en función del tiempo). Por tanto, la variable respuesta es el número
de compresiones (en miles) hasta la rotura de la muestra.
FACTORIALES COMPLETOS 221
ejec. Factor_A Factor_B Factor_C Var_1
----- -------- -------- -------- ------------
1 -1,0 -1,0 1,0 53122,0
2 -1,0 1,0 1,0 62087,0
3 1,0 -1,0 1,0 73226,0
4 1,0 1,0 1,0 79875,0
5 1,0 -1,0 -1,0 86550,0
6 -1,0 -1,0 -1,0 68771,0
7 1,0 1,0 -1,0 81233,0
8 -1,0 1,0 -1,0 64189,0
Figura 11-1 Matriz del diseño tipo 23
(−1) (+1)
0 90
46 49
Si
En la tabla anterior se recogen los intervalos de estudio en el diseño experi-
mental con tres factores a dos niveles. A continuación, se recoge las respuestas
de este experimento de tipo 23, en este caso es posible también representar la
respuesta como vértices de un cubo, llamado cubo del diseño.
Un estudio detallado de este cubo permite extraer la información relevante
de estos experimentos. Así, puede verse en qué condiciones se obtienen materi-
ales con mayor dureza (resistencia a la fatiga). Sin embargo, para calcular los
efectos que cada factor tiene sobre la respuesta, denominados efectos principales
y las interacciones entre los factores serán necesarios cálculos más prolijos.
11.7.1. Cálculo de efectos e interacciones
El efecto principal de un factor mide cuanto cambia la respuesta, en prome-
dio, al pasar del nivel más bajo (-1) al nivel más alto (+1). Se calcula restando
las respuestas medias que se obtienen con ese factor al nivel más alto (+1)
menos las respuestas medias que se obtienen con ese factor al nivel más bajo
(-1).
La interpretación de estos efectos nos lleva a afirmar que el número de com-
presiones hasta la rotura aumenta, en promedio, en 18 miles de compresiones,
al pasar del nivel más bajo del factor Inclinación (0) al más alto (90). El
222 DISEÑOS DE EXPERIMENTOS PARA CALIDAD Y FIABILIDAD
promedio = 71131,6 +/- 197,625A:Factor_A = 18178,8 +/- 395,25
B:Factor_B = 1428,75 +/- 395,25C:Factor_C = -8108,25 +/- 395,25AB = -762,75 +/- 395,25
AC = 767,25 +/- 395,25BC = 6378,25 +/- 395,25
Figura 11-2 Interacciones y efectos principales de los tres factores.
número de compresiones hasta la rotura aumenta, en promedio, en 1.5 miles de
compresiones, al pasar del nivel más bajo del factor Grosor (46.6%) al más alto
(49%). Sin embargo, el número de compresiones hasta la rotura disminuye, en
promedio, en 8 miles de compresiones, al pasar del nivel más bajo del factor
Postcurado (Con postcurado) al más alto (Sin postcurado). A la vista de estos
resultados, cabe preguntarse hasta qué punto estos valores son estadísticamente
significativos. Este aspecto lo resolveremos más adelante. Otra pregunta es có-
mo afecta cada factor dejando fijos los niveles de otro. Concretamente, a la
vista de la respuesta, parece interesante estudiar las combinaciones del efecto
grosor con el efecto postcurado.
Standardized Pareto Chart for compresiones
0 10 20 30 40
Standardized effect
AC
AB
B:Factor_B
BC
C:Factor_C
A:Factor_A
Efectos principales e interaciones.
Interaction Plot for compresiones
68
73
78
83
88
93
98
com
pres
ione
s
AB-1.0 1.0
-
-
+
+
AC-1.0 1.0
-
-
+
+
BC-1.0 1.0
-
-
+
+
Interaciones entre los factores.Existe una interacción entre los factores Grosor y Postcurado.
Para cuantificar el valor de las interacciones entre dos factores se hace la
diferencia de los efectos de un factor con él al nivel más alto menos el efecto al
nivel más bajo y se dividen estos efectos entre dos para que la varianza de los
factores sea igual que la de los efectos principales. Si esta diferencia es cero (o
FACTORIALES COMPLETOS 223
próxima a cero) indica que el efecto de un factor es independiente del nivel del
otro, y por tanto no interaccionan. Es fácil observar que la interacción AB es
la misma que la BA.
Las interacciones se pueden representar gráficamente aportando una mayor
información que el simple valor numérico. Para esta representación se sitúa en
un eje cartesiano la respuesta en las ordenadas (eje Y) y los niveles (-1 y +1)
en las abscisas graficando los valores de la respuesta para el factor y uniendo
las del mismo nivel por medio de un segmento.
Se podrían realizar los ANOVAS correspondientes a cada factor.
Analizando los factores de forma independiente sobre la respuesta, vemos
que los dos factores últimos (grosor y postcurado) no son influyentes en el
cambio de la respuesta media (p-valores 0.864 y 0.344). Calculando los inter-
acciones, sí que se observa una influencia de los dos juntos, como veremos a
continuación.
11.8. Factoriales fraccionales
En los diseños factoriales completos, que hemos estudiado en el apartado
anterior, hemos visto que uno de los inconvenientes es el elevado número de
experimentos necesarios. Este número depende del número de factores k a es-
tudiar.En la industria o en experimentos de laboratorio es fácil trabajar con un
número grande de factores, así en el caso de utilizar 10 factores necesitaríamos
1024 experimentos que puede resultar un trabajo excesivo o incluso prohibiti-
vo para el presupuesto manejado. Los diseños factoriales fraccionales permiten
reducir considerablemente los experimentos cuando se estudia un número alto
de factores.
La reducción del número de experimentos se hace a consta de perder infor-
mación sobre las interacciones, sin embargo, por experiencias en el estudio de
casos reales, las interacciones de orden superior (3, 4,...) no suelen ofrecer rele-
vancia alguna en la respuesta. Por este motivo se suele estudiar sólo los efectos
principales y las interacciones de dos factores por lo que se puede prescindir
de iteraciones de orden mayor lo que llevará a la reducción en el número de
experimentos.
Un diseño factorial fraccionario, o diseño fraccional, es una parte (fracción)
del diseño factorial completo. Por ejemplo un diseño factorial completo con
7 factores necesita de 128 experimentos, mientras que uno fraccional de tipo
permite estudiar los 7 factores con 64 experimentos, suponiendo despreciables
las interacciones de orden mayor de 4. Un diseño de tipo permite estudiar 7
factores con 16 experimentos, suponiendo despreciables las interacciones de
orden igual o superior a tres y alguna de orden dos.
Con lo comentado anteriormente es evidente la importancia de fraccionar un
experimento en aras de la reducción del número total de ensayos, pero además,
224 DISEÑOS DE EXPERIMENTOS PARA CALIDAD Y FIABILIDAD
esta reducción, se constata en la práctica donde suele cumplirse el “principio
de Pareto” que afirma que cuando sobre una respuesta se considera un elevado
número de factores, sólo unos pocos son responsables de la variabilidad de la
respuesta, mientras la mayoría de los factores producen cambios indistinguibles
con el ruido experimental.
Para la construcción de un diseño fraccional se utilizará una columna gen-
eradora, por ejemplo, de un diseño con 32 experimentos, se construye un nuevo
diseño con 16, tomando un diseño de tipo completo y al factor E se asigna
el valor del producto (por el algoritmo de los signos) de los factores .
A esta confusión se denomina generador, de forma que el generador usado es:
= . El diseño anterior, fraccional de tipo 25−1, se dice que es de res-olución , este valor indica el número de confusiones que se presentan en la
estimación de los efectos. En este caso los efectos principales están confundidos
con interaccione de cuatro factores y las interacciones de dos con las de tres.
La resolución de un diseño se denota por un número romano situado como
subíndice. 25−1 . Este tipo de diseño se denomina diseño de media fracción
En un caso general para escribir una media fracción basta con escribir el
diseño completo para el número de variables deseado y asignar la variable
restante a la interacción mayor posible. Así, por ejemplo, para cuatro factores
un diseño de tipo 24−1 se construye partiendo de un diseño completo 23 y se
calcula el factor generador del diseño = En este caso la resolución es
Otra forma de fraccionar un diseño es despreciar más interacciones, así
un caso opuesto a un diseño en media fracción son los denominados diseños
saturados que serían los más fraccionados posibles, se construyen a base de
saturar un diseño de tipo 2 asignando a cada interacción una nueva variable,
lo que permite estudiar 2−1 variables, siendo, por tanto, diseños de resolución. Por ejemplo un diseño 27−4 permite el estudio de 7 variables con sólo 8
experimentos. Estos diseños también se denominan de efectos principales (pues
sólo se pueden estudiar estos efectos) y resultan útiles en un primer estudio.
11.9. Otros diseños de experimentos en la indus-
tria
11.9.1. Diseños tipo Taguchi
Taguchi desarrolló un enfoque tecnológico-práctico del Diseño de Experi-
mentosinteresado en la productividad y efectividad (en términos de costes),
en lugar de interesarse en el rigor estadístico. La idea de sus diseños descansa
en utilizar la función de pérdida y la relación Señal/Ruido. Taguchi sostiene
que la clave para la reducción de la pérdida no consiste en cumplir con las
OTROS DISEÑOS DE EXPERIMENTOS EN LA INDUSTRIA 225
especificaciones, sino en reducir la varianza con respecto al valor objetivo.
Taguchi propone desarrollar una ingeniería de la calidad que divide general-
mente en dos partes: la que llama Ingeniería de Calidad fuera de línea (afecta
a la optimización de los diseños) y la ingeniería de Calidad en línea (su ámbito
es el control y optimización de la producción). La idea está en utilizar diseños
de experimentos en dos fases. En una primera fase y con objeto de disminuir
el coste se propone el uso del diseño de parámetros, y en una segunda fase se
propone el diseño de tolerancias mediante cambios en los costes.
El llamado diseño de parámetros es una técnica una usada para determinar
la mejor combinación de los niveles de los factores de un producto o proceso
de tal manera que sea menos sensible al ruido y su coste sea mínimo.
En el diseño del sistema se determina la configuración básica de los com-
ponentes. Por ejemplo, la determinación de los materiales. En el diseño de
los parámetros, se determinan los niveles o valores de los factores controlables
(parámetros de diseño, como la presión, la temperatura) para minimizar el
efecto de los factores incontrolables en las características del producto termi-
nado. Finalmente, el diseño de las tolerancias apunta a reducir la varianza en
las características del producto terminado cuando la reducción lograda en el
diseño de los parámetros no es suficiente.
El enfoque de Taguchi parte de dividir los factores de un experimento en
factores controlables y factores incontrolables, o ruido y recomienda seleccionar
dos diseños experimentales, uno para los factores controlables y otro para el
ruido. En general, estos diseños son de tipo ortogonal. Para Taguchi, el uso de
los ratios señal-ruido elimina en general la necesidad de examinar las interac-
ciones entre los factores controlables y los factores de ruido, si bien el examen
de estas interacciones mejora de forma evidente la comprensión del proceso.
11.9.2. Diseños de procesos robustos
Un proceso o producto robusto será aquel que permanece insensible a las
condiciones variables del uso en la vida real (distintas condiciones ambientales,
variaciones en componentes). Ejemplo (Michaels): estudio de la capacidad de
limpieza de un detergente (Box, Hunter and Hunter, 2008). Factores ambien-
tales: Temperatura (T), dureza del agua (H) y concentración de detergente en
agua (R). Factores bajo control: A, B, C y D.
11.9.3. Diseños Plackett-Burman
Los diseños llamados Plackett-Burman son un tipo especial de diseño factor-
ial fraccionado. Concretamente se analiza “espacios” entre factores adyacentes.
226 DISEÑOS DE EXPERIMENTOS PARA CALIDAD Y FIABILIDAD
Los diseños Plackett—Burman fueron propuestos en 1946 por Robin L.
Plackett y J. P. Burman en sus trabajos en el British Ministry of Supply.
Su objetivo era encontrar diseños experimentales para la investigación de la
dependencia de una determinada cantidad medida en un número de variables
independientes (factores), tomando cada uno los niveles de L, de tal manera
que se minimice la varianza de las estimaciones de estas dependencias con un
número limitado de experimentos. Las interacciones entre los factores fueron
considerados insignificantes. La solución a este problema consiste en encontrar
un diseño experimental en el que cada combinación de niveles para cualquier
par de factores aparece el mismo número de veces, a lo largo de todas las ré-
plicas. Un diseño factorial completo podría satisfacer este criterio, pero la idea
era encontrar diseños más reducidos fue la inspiró a estos autores a utilizar
diseños fraccionados..
Para el caso de dos niveles ( = 2), Plackett y Burman usan el método
propuesto en 1933 por Raymond Paley para la generación de matrices ortog-
onales (matrices de Hadamard). El método de Paley permite encontrar tales
matrices de tamaño N para valores que sean múltiplos de 4.
En particular, estos diseños están desarrollados para un número de factores
N de como máximo de 100, excepto el caso N = 92. Siempre que N sea una
potencia de 2, sin embargo, el diseño resultante es idéntico al de un diseño
factorial fraccional, por lo que los diseños Plackett-Burman se utilizan sobre
todo cuando N es un múltiplo de 4, pero no una potencia de 2 (es decir, N =
12, 20 , 24, 28, 36 ...).
11.9.4. Superficies de Respuesta
Bajo la denominación de superficies de respuesta se engloba un grupo de
técnicas que permiten relacionar como varias variables afectan, a la vez, a la
variable respuesta. En este apartado se aplicarán estas técnicas al caso de = 2
variables, pero se puede generalizar al caso de más de dos factores.
Estas técnicas vienen usándose desde 1950 con gran éxito en la inter-
pretación de resultados y cálculo de óptimos de la respuesta, siendo hoy en
día, gracias al avance de los programas informáticos cuando más se ha exten-
dido su uso, incluso con un cierto abuso. Si se quiere ahondar en su uso e
interpretación puede consultarse el texto de Box, Hunter y Hunter.
Ejemplo 11.5 En el ejemplo del estudio de la permeabilidad de la resina anal-
izado se podría hacer un estudio de la superficie de respuesta con objeto de
encontrar la combinación de ácido y peróxido que inimizan la permeabilidad.
Esta superficie y su correspondiente gráfico de nivel pueden verse en los gráficos
siguientes:
OTROS DISEÑOS DE EXPERIMENTOS EN LA INDUSTRIA 227
Figura 11-3 Ejemplo de diferentes superficies de respuesta.
-0,004 0,067 0,137 0,207 0,278 0,348 0,419 0,489 0,559 0,63 above
Superficie de respuesta Fuc_=f(ácido, peróxido)
z=0,142-0,327*x-0,952*y+0,248*x*x+0,313*x*y+1,36*y*y
Superficie de Respuesta para la permeabilidad de una resina epoxi.
-0,004
0,067 0,137 0,207
0,278 0,348 0,419
0,489 0,559
0,63
curva de n ivel
z=0,142-0,327*x-0,952*y+0,248*x*x+0,313*x*y+1,36*y*y
ACIDO
PE
RO
XID
O
-0,1
0,1
0,3
0,5
0,7
0,9
1,1
-0,2 0,2 0,6 1,0 1,4 1,8 2,2
Gráfico de curvas de nivel para la resina epoxi.Observando las curvas de nivel es fácil apreciar el mínimo de la variable
228 DISEÑOS DE EXPERIMENTOS PARA CALIDAD Y FIABILIDAD
dependiente para valores del 0.4% de ácido y del 0.3% de peróxido. Analizando
la superficie de respuesta también se pueden apreciar que valores hacen mínimo
la variable dependiente.
11.9.5. El modelo ANOVA FUNCIONAL
Una de la formas más frecuentes de obtener datos en procesos industriales
modernos y en pruebas de laboratorio es la relación de una gran cantidad de
datos, muchas veces en forma de curvas que comunmente se asocian a datos
funcionales, llamados también datos longitudinales y que aparecen asociados
a procesos monitorizados continuamente en el tiempo. Es decir, cuando se
mide una variable en un conjunto discreto y finito de puntos ordenados. En
este contexto, una variable aleatoria se dice una variable funcional si toma
valores en un espacio funcional (normado o semi-normado completo). Un caso
particular se produce cuando la variable funcional pertenece a un espacio
de Hilbert, como es el caso de las funciones continuas en un intervalo (Ramsay
& Silverman, 1997).
Cuando se tienen datos funcionales puede construirse el llamado ANOVA
funcional (Cuevas, et al., 2004). Una de las ventajas que presenta frente a un
ANOVA clásico consiste en el aprovechamiento de toda la información de la
curva en lugar de recurrir a indicadores puntuales sobre la misma.
Siguiendo la nomenclatura de Cuevas et al. (2004), cada dato funcional se
puede representar como () con ∈ [ ], siendo el subíndice que indica
el nivel del factor y el número de réplica ( = 1 2 e = 1 2 ).
Como, en este caso, la temperatura es directamente proporcional al tiempo
(10◦), puede considerarse a “” como los valores de la propia temper-
atura.
La media correspondiente a cada nivel o muestra independiente tiene la for-
ma (()) = (), mientras la covarianza entre dos instantes determinados
dentro de una curva, en el caso más restrictivo de existencia de heterocedasti-
cidad, se identifica como ( ):
( ) =
X=1
¡()−·()
¢ ¡()−·()
¢ − 1 (11.6)
Por tanto, en este contexto funcional, el objetivo del contraste asociado al
ANOVA funcional es probar que:
0 : 1 = 2 = = (11.7)
El estadístico implementado por Cuevas et al. (2004) para contratar esta
hipótesis es el siguiente:
OTROS DISEÑOS DE EXPERIMENTOS EN LA INDUSTRIA 229
=X
°° · −·
°°2 (11.8)
La utilización del estadístico (11.8) evita el requerimiento de la hipóte-
sis de homocedasticidad en un ANOVA usual, siempre que se cumplan las
propiedades siguientes:
a) →∞ suponiendo 0 para = 1 , =
b) las observaciones() con = 1 , se corresponden con muestras
independientes de tamaño de procesos 2 con media cero y covarianza
( ), se puede afirmar que la distribución de bajo la hipótesis0 coincide
con la del estadístico:
=X
k()− ()k2 (11.9)
Donde = ()12 y 1() () son procesos gausianos indepen-
dientes de media cero y covarianza ( ).
El cálculo de la distribución del estadístico (11.9) dentro de la hipótesis nula
puede hacerse mediante la aplicación de un bootstrap paramétrico y del método
de Monte Carlo, obteniéndose el valor del cuantil , que permite resolver el
contraste, así si se rechazará la hipótesis0 siendo el test significativo,
es decir, las medias de los distintos niveles del factor serían diferentes.
Ejemplo: Con el objeto de evaluar el efecto de la adición de humo de sílice
en la degradación térmica de un material compuesto se ha realizado un diseño
de experimentos con datos funcionales. Se ha elegido un diseño ANOVA de una
vía para testear las posibles diferencias en la respuesta según el tratamiento
efectuado. Se ha tomado como factor de estudio o variable explicativa el con-
tenido en sílice de cada muestra, con tres niveles (0%, 10% y 20% en peso
de humo de sílice). Se han efectuado a su vez 5 experimentos o réplicas por
cada nivel, con lo cual se obtiene un diseño balanceado. El número de réplicas
elegidas se ha marcado con el fin de llegar a un compromiso aceptable entre la
representación adecuada de la variabilidad dentro de cada nivel y el tiempo de
experimentación total requerido.
Con el fin de caracterizar la influencia de la cantidad de humo de sílice en
la estabilidad térmica de los materiales compuestos resultantes, se han llevado
a cabo 19 experimentos: 7 correspondientes a la resina epoxi sin carga, otros 7
para un 10% en peso de humo de sílice y 5 para un 20% (ver Figura 1).
Cada uno de los experimentos se corresponde con un dato funcional donde
se representa la masa de la muestra en función de la temperatura a la que está
sometida. Como ya se ha indicado, cada muestra es calentada a 10◦C/min enun rango de temperaturas que va de 20 a 600◦C. Se observa que al final decada ensayo, a 600◦C, se degrada por completo la fase orgánica (resina epoxi),quedando únicamente la masa añadida de humo de sílice, mucho más resistente
térmicamente. Es importante señalar que la masa de la muestra se representa
en%, es decir, se asigna a la masa inicial el 100% representándose todos los
230 DISEÑOS DE EXPERIMENTOS PARA CALIDAD Y FIABILIDAD
0 100 200 300 400 500 600
020
4060
8010
0
Datos Originales − Curvas TG
Temperatura/ ºC
Mas
a/ %
Figura 11-4 Datos experimentales: curvas TG de partida.
valores siguientes con respecto a esta. Cada curva consta de un número variable
de puntos entorno a 3480, uno por segundo, dependiendo de la temperatura
ambiente a la que se encuentre la máquina de ensayo.
La variable respuesta o dependiente es una variable funcional donde cada
dato es una curva que representa la masa del material en función de la temper-
atura a la que está sometido. Para su obtención se ha programado un aumento
constante en la temperatura de 10◦C/min. Todas las curvas son decrecientespues el material se degrada, es decir, pierde masa, según aumenta la temper-
atura a la que está sometido. En sí, desde el punto de vista de un estudio
de fiabilidad de los materiales, cada curva representa el camino particular de
degradación de cada muestra ensayada. La finalidad de esta experimentación
es dar respuesta a las siguientes preguntas: ¿serán esos caminos diferentes para
distintos niveles del factor cantidad de sílice?, ¿puede decirse que la estabilidad
térmica del material aumenta o disminuye, con evidencias estadísticas?
11.9.6. Estudio de la profundidad de los datos.
El concepto de profundidad indica cómo de central es un punto relativo
a una nube de puntos perteneciente a una población. Siguiendo este criterio
pueden ordenarse los diferentes datos funcionales pertenecientes a una muestra
de una población dada: se identifican como más profundos aquellas curvas más
cercanas al centro (dato más profundo definido como mediana), mientras que
se identifica como datos atípicos aquellas curvas que se generan por un proceso
estocástico diferente al resto (Cuevas, et al., 2006).
OTROS DISEÑOS DE EXPERIMENTOS EN LA INDUSTRIA 231
Cada nivel del factor aparece, en la Figura 4, relativamente bien diferenci-
ado de los restantes. Las diferencias se observan sobre todo a altas temperat-
uras. La resina se va degradando paulatinamente de forma que al final sólo va
quedando el humo de sílice añadido. La resina sin humo de sílice se degrada
completamente (en rojo) mientras que todavía queda un entorno a un 10% y
un 20% de la masa para los grupos que tienen un 10 y un 20% en carga de
humo de sílice.
A simple vista se pueden observar tres escalones en las curvas. El primero,
no siempre perceptible, se corresponde a la pérdida de sustancias volátiles y
humedad (se localiza a temperaturas alrededor de 100◦C).
Es singularmente importante el segundo escalón de las gráficas, ya que
indica realmente el primer proceso de degradación. Es aquí donde la resina
epoxi empieza a perder masa, y lo hace de forma abrupta. Se observa que
cuando se pasa de un 0% a un 10% en humo de sílice, la masa remanente al
comienzo de este escalón es ligeramente mayor a una temperatura dada (por
ejemplo, en torno a 320◦C). Esto quiere decir que se ha conseguido aumentaraparentemente la estabilidad térmica del material compuesto resultante. En
cambio, cuando se pasa de un 10% a un 20% de humo de sílice, este aumento
es mucho más ligero.
Para construir el contraste, se han seguido los pasos marcados por Cuevas,
et al. (2004), teniendo en cuenta que la hipótesis nula a contrastar de igualdad
de medias entre las curvas (??), donde es la media de los datos funcionales
dentro de cada uno de los tres niveles estudiados del factor “cantidad de humo
de sílice”.
En primer lugar se construye el estadístico , donde los tres niveles se cor-
responden con la adición del 0%, del 10% y del 20% en humo de sílice mientras
que la respuesta está representanda por la media de los datos funcionales para
cada nivel. Con el fin de aproximar por Monte Carlo la distribución del estadís-
tico , se procede del modo siguiente:
a) Se calcula la matriz de varianzas covarianzas de los datos muestrales. Si se
supone que la estructura de covarianzas es diferente según el nivel del factor, nos
encontramos en el caso heterocedástico; más restrictivo que el homocedástico.
Suponiendo heterocedasticidad, se calcula una matriz de covarianzas diferente
por nivel, siendo su estimador el siguiente:
c( ) =
X=1
¡()−·()
¢ ¡()−·()
¢ − 1
Donde y dos instantes dados dentro de cada dato funcional.
b) Bajo la hipótesis nula, el estadístico sigue una distribución dependiente
de procesos gausianos (Cuevas, et al., 2004) difícil de conseguir. Pero dicha
distribución se puede aproximar por Monte Carlo. Para ello se lleva a cabo el
siguiente procedimiento bootstrap paramétrico:
232 DISEÑOS DE EXPERIMENTOS PARA CALIDAD Y FIABILIDAD
b.1) partiendo de la muestra original, se calculan las matricesc( )1≤≤y se generan = 2000 remuestras bootstrap por nivel, generadas según una
distribución normal de media cero y matriz de covarianzas c( )1≤≤.b.2) se consiguen 2000 valores ∗ = (∗(1)
∗()) por nivel, con
= 1 2000 e = 1 2 3. Estos valores aproximan las trayectorias continuas
de () por versiones escalonadas evaluadas en una rejilla ≤ 1 ≤ .
b.3) se construyen 2000 réplicas de la forma b =P
°°∗()− ∗(1)
°°2,que aproximan la distribución de bajo 0.
Mediante el proceso anteriro se puede calcular tal que ( ) =
bajo la hipótesis nula. Si , el contraste resulta significativo.
El resultado de la implementación de este proceso al caso de las curvas TG
sin reescalar ha proporcionado los siguientes valores = 5703151 y =
1402292.
Por lo tanto, como , el test resulta totalmente significativo, al
menos una de las medias funcionales por factor es diferente a las demás. Desde
el punto de vista ingeniril podría afirmarse que la adición de humo de sílice
provoca cambios en las medias funcionales de las curvas TG. Se podría concluir
que aumenta significativamente la estabilidad térmica del material compuesto
al aumentar la cantidad de sílice.
OTROS DISEÑOS DE EXPERIMENTOS EN LA INDUSTRIA 233
234 DISEÑOS DE EXPERIMENTOS PARA CALIDAD Y FIABILIDAD
12. APÉNDICES
12.1. Apéndice 1. Resumen de fórmulas
Estadísticos pivotales para una muestra aleatoria {1 · · · } deuna población Normal (menos las señaladas con **)
Para Suposición Estadístico Pivotal Distribución
2 conocida√ −
(0 1)
2 desconocida√ −
−1
**b− r (1− )
(0 1)
(aproximadamente)
2 conocida
P=1
( − )2
22
2 desconocida(− 1) 2
22−1
APÉNDICES 235
Estadísticos pivotales para dos muestras aleatorias independientes
{1 · · · } y {1 · · · } de una población Normal(menos las señaladas con **)
Para Suposición Estadístico Pivotal Distribución
− 2 y 2 conocidas
¡ −
¢− ( − )r2+
2
(0 1)
− 2 = 2
desconocidas
¡ −
¢− ( − )br1
+1
+−2
− 2 6= 2
desconocidas
¡ −
¢− ( − )sb2+b2
+−2−∗
− **(b − b )− ( − )r (1− )
+
(1− )
(0 1)
22
b2b2 22
−1−1
*donde es el entero más próximo a ∆ =
(−1) b2−(−1)
b2
2
(−1)
b2
2
+(−1)
b2
2
Estadísticos pivotales para dos muestras aleatorias apareadas
{( )
=1} de una población Normal
Para Estadístico Pivotal Distribución
− = − − b −1
12.2. Introducción al programa estadístico R
12.2.1. Introducción al R
R, también conocido cono “GNU S”, es un lenguaje para el cálculo es-
tadístico y la generación de gráficos. R implementa un dialecto del lenguaje S,
236 APÉNDICES
desarrollado en los Laboratorios Bell por John Chambers et al.
Entre las características del programa R están: la capacidad de combinar,
sin fisuras, análisis "pre-empaquetados", los gráficos de alta calidad, la comu-
nidad de R es muy dinámica e integrada por estadísticos de gran renombre ,
es un lenguaje orientado a objetos.
R es la implementación GNU de S: http://cran.r-project.org/
Figura 12-1 Página WEB del programa R.
R consta de un "sistema base de paquetes adicionales que extienden la
funcionalidad. Distintos "tipos"de paquetes: Los que forman parte del sistema
base (ej. ctest). Los que no son parte del sistema base, pero son
reconmended"(ej., survival, nlme). En GNU/Linux y Windows ya forman
parte de la distribución estándar.
12.2.2. El entorno de trabajo en R
Esta es la pantalla inicial que nos encontramos al instalar R:
El Promt del sistema, por defecto, es
Aquí es donde se empezarían a escribir los diferentes comandos. Teniendo
presente que "#"indica el principio de un comentario. R puede usarse para
hacer algunas operaciones aritméticas simples.
El programa instalado por defecto es el denominado programa “base”, y
dependiendo de los datos y del estudio a realizar, podemos instalar cualquier
otro programa, directamente, desde el menú de “Packages”.
12.2.3. Objetos
R es un lenguaje orientado a objetos: variables, datos, matrices, funciones,
etc. Estos se almacenan en la memoria activa del ordenador en forma de objetos.
INTRODUCCIÓN AL PROGRAMA ESTADíSTICO R 237
Figura 12-2 Entorno de trabajo en R.
Por ejemplo, se un objeto x toma el valor 100:
x - sqrt(2) # almazena la raíz cuadrada de 2 en x
Los tipos básicos de objetos del R son:
• vectores
• matrices y arrays
• data-frames
• listas
• funciones
12.2.4. ¿Cómo introducir datos? Vectores
Podemos introducir datos definiendo los vectores con o comando c() (“c“
correspondiente a concatenate) o usando funciones que crean vectores.
v1 - c(2,5,6) # crea un vector v1 con los datos 2, 5 y 6
v2 - c(23,56,34,23,12,56)
v2
[1] 23 56 34 23 12 56
También existen formas más cómodas:
v3 - 1:20 # crea un vector con números del 1 a 20
v4 - (1:10)*10 # crea un vector con elementos 10, 20, ..., 100
v5 - rep(5, 10) # crea un vector con elemento 5 repetido 10 veces
238 APÉNDICES
12.2.5. Función edit
El comando edit(data.frame()) abre una plantilla para la introducción de
datos que se almacenaran como un data-frames. Posibilita la entrada de datos
de forma similar a una hoja de cálculo tipo Excel o a un programa clásico de
estadística.
Hoja1 - edit(data.frame())
12.2.6. Importando ficheros de datos
Se los están en otro formato electrónico, se pueden importar para trabajar
con ellos en R sin necesidad de introducirlos nuevamente. Para ello lo más fácil
de hacer es usar datos en formato texto (archivos tipo ASCII). Por ejemplo, si
los datos están en EXCEL u otro formato similar, se puede escoger la opción
SALVAR COMO e grabarlos en formato texto. R usa la función read.table
para leer los datos de un archivo texto y almacenarlos en formato de data-
frame.
Si quisiéramos importar los datos que se encuentran en nuestra área de
trabajo (working directory do R) con el nombre de fichero datos1.txt. Para
importar este archivo usamos:
datos1 - read.table(“datos1.txt”)
ls() # verificando los objetos existentes en el área de trabajo
rm(x, y) # Eliminando los objetos que no serán necesarios
12.2.7. Matrices en R
Veamos algunos ejemplos de cómo crear matrices, bien por filas o bien
por columnas. También damos diferentes funciones que permiten averiguar la
dimensión, extraer determinados elementos de la matriz, etc. . .
m1 - matrix(1:12, ncol=3)
m1
m2 - cbind(1:5, 6:10)
m2
m3 - cbind(1:5, 6)
m3
x - 1:16
mat1 - matrix(x,ncol=4)
mat1
[,1] [,2] [,3] [,4]
INTRODUCCIÓN AL PROGRAMA ESTADíSTICO R 239
[1,] 1 5 9 13
[2,] 2 6 10 14
[3,] 3 7 11 15
[4,] 4 8 12 16
En este ejemplo henos creado una matriz de 4 columnas y 4 filas usando
los números de 1 a 16. La matriz se describe por filas, si se quisiera invertir
este criterio se añade el argumento byrow=T, para decir que la matriz debe
ser escrita por columnas:
summary() opera en cada columna como se fueran vectores:
summary(mat1)
Todas las funciones operan con matrices de la misma forma que con vectores
- elemento a elemento. Por tanto, si queremos multiplicar dos matrices con
* dará como resultado el producto de cada elemento de una matriz por el
elemento correspondiente de la otra matriz, y no la multiplicación de matrices
usual.
Para hacer la multiplicación de matrices debemos usar el símbolo%*%
Si quiere seleccionar todas las filas de una matriz con una cierta condición
definida por las columnas, por ejemplo supongamos que en la matriz siguiente,
maíz, cada fila corresponde a una persona y las columnas se refieren a medidas
tomadas de estas personas. Si queremos seleccionar las personas (filas) que
cumplen un determinado criterio (edad, sexo, etc.
Vamos a definir una matriz donde las columnas serán: la primera índices
1 a 5, la segunda la edad y la tercera el sexo (codificado como 0/1) de cinco
personas.
Ejemplo maíz: En un estudio agrícola sobre producción de maíz para con-
sumo humano podríamos considerar una muestra formada por varios terrenos
(n) y medir sobre cada individuo de la muestra (cada terreno en este caso) tres
variables: la extensión del terreno (en m2), el peso (en kg) del maíz recogido en
la cosecha del año 2005 y el peso (en kg) de los desechos, dedicados a forraje,
en la cosecha de ese mismo año. Si denotamos estas tres variables por X1, X2
y X3, cada una representará una columna de la matriz de datos de la muestra
(que en este caso es tridimensional. Así, los datos de una muestra de 4 terrenos
podrían resumirse en la siguiente matriz:
X1 X2 X3
2025 3985 9875
1534 3326 7421
891 1759 4372
3642 7034 19541
Vamos a realizar diferentes operaciones con estos datos, en primer lugar
definimos la matriz por columnas:
maiz- cbind(c(2025,1534,891,3642), c(3985,3326,1759,7034), c(9875,7421,4372,19541
Aunque podría interesarnos ver las variables como filas y las observaciones
en columnas, por lo que calcularíamos su matriz traspuesta:
t(maíz)
[,1] [,2] [,3] [,4]
240 APÉNDICES
[1,] 2025 1534 891 3642
[2,] 3985 3326 1759 7034
[3,] 9875 7421 4372 19541
Si quisiéramos hacer un estudio de los datos podríamos usar la orden sum-
mary:
summary(maiz)
La matriz de varianzas-covarianzas:
var(maíz)
[1,] 1380570 2592805 7692885
[2,] 2592805 4893011 14422810
[3,] 7692885 14422810 43002170
y la varianza generalizada (determinante de la matriz de varianzas-cova-
rianzas) sería:
det(var(maíz))
[1] 354416e+15
La matriz de correlaciones:
cor(maíz)
[1,] 10000000 09975909 09984236
[2,] 09975909 10000000 09942980
[3,] 09984236 09942980 10000000
12.2.8. Data-frames
Un data.frame permite introducir matrices, vectores, etc., a la vez para ser
estudiados:
d1 - data.frame(X = 1:10, Y = c(51, 54, 61, 67, 68, 75, 77, 75, 80, 82))
12.2.9. Estadística descriptiva con R
Descripción de una variable unidimensional
Analizarenos el fichero disponible en R, mtcars, que describe características
de diferentes modelos de automovil.
data(mtcars)
mtcars # muestra todo los datos
dim(mtcars) # muestra la dimensión de los datos
names(mtcars) # muestra los nombres de las variables
help(mtcars) # muestra documentación del conjunto de datos
A data frame with 32 observations on 11 variables.
INTRODUCCIÓN AL PROGRAMA ESTADíSTICO R 241
Vamos seleccionar un subconjunto de estos datos. Para ello creamos un
objeto llamado motor que contiene algunas variables solamente, indicamos los
números de las columnas correspondientes a estas variables.
motor - mtcars[,c(1,2,4,6,9,10)]
motor[1:5,]
names(motor)
mpg cyl hp wt am year
Mazda RX4 21.0 6 110 2.620 1 4
Mazda RX4 Wag 21.0 6 110 2.875 1 4
Datsun 710 22.8 4 93 2.320 1 4
Hornet 4 Drive 21.4 6 110 3.215 0 3
Hornet Sportabout 18.7 8 175 3.440 0 3
names(motor)
[1] "mpgcylhpwtamgear"
Vamos anexar este objeto para facilitar su utilización:
attach(motor)
Vamos a estudiar la variable número de cilindros. Vamos hacer una tabla
de frecuencias absolutas y gráficos de barras_
tcyl - table(cyl)
barplot(tcyl)
4 6 8
02
46
81
01
21
4
Figura 12-3 Diagrama de barras.
Analizaremos la variable cuantitativa continua mpg (millas por galón):
table(cut(mpg, br=seq(10,35, 5)))
Veamos el diagrama de tallo y hojas:
sten(mpg)
The decimal point is at the |10 | 44
242 APÉNDICES
12 | 314 | 370225816 | 43818 | 1722720 | 0044522 | 8824 | 426 | 0328 |30 | 4432 | 49
Variables bidimensionales
Analizaremos, para el mismo fichero de coches distintas variables bidimen-
sionales. En primer lugar las variables categóricas: tipo de marca y número de
cilindros.
table(am, cyl)
prop.table(table(am, cyl))
prop.table(table(am, cyl), margin=1)
prop.table(table(am, cyl), margin=2)
plot(table(am, cyl))
barplot(table(am, cyl), leg=T)
barplot(table(am, cyl), beside=T, leg=T)
12.2.10. Variables k-dimensionales
Vamos utilizar otro conjunto de datos disponible en R: el conjunto airqual-
ity.
Estos datos son medidos de concentración de ozono (Ozone), radiación solar
(Solar.R), velocidad del viento (Wind) y tenperatura (Tenp) recogidos diaria-
mente (Day) durante cinco meses (Month).
data(airquality) # entrada de los datos desde R
airquality # muestra los datos
is.data.frame(airquality) # verifica si es un data-frame
names(airquality) # nombre de las columnas, variables.
dim(airquality) # dimensiones del data-frame
help(airquality) # explica los datos
INTRODUCCIÓN AL PROGRAMA ESTADíSTICO R 243
4 6 8
01
02
46
81
01
2
Figura 12-4 Diagrama de barras bidimensional.
12.2.11. Modelos de Regresión en R
12.2.12. Modelos de regresión paramétricos lineales
Ejemplo de regresión simulado: Construcción de dos vectores relacionados
y su posterior análisis de regresión lineal.
# Generamos un vector con una secuencia de números de 1 a 50
x - 1:50
# Generamos un vector de pesos
w - 1 + sqrt(x)/2
# Creamos un “data-frame” de 2 columnas, x e y
reg - data.frame(x=x, y= x + rnorm(x)*w)
reg
# Creamos un ajuste de regresión lineal simple de y sobre x y analizamos
los resultados
fm - lm(y ~x, data=reg)
Min 1Q Median 3Q Max
-7.5998 -1.9679 0.6175 2.1429 6.6488
Coefficients:
Estimate Std. Error t value Pr(|t|)
244 APÉNDICES
Ozone
0 150 300 60 80 0 10 20 30
010
0
015
0 Solar.R
Wind
515
6080 Temp
Month
56
78
9
0 50 150
010
25
5 15 5 6 7 8 9
Day
airquality data
Figura 12-5 Relación entre las varibles de airquality.
(Intercept) 0.85898 0.94471 0.909 0.368
Multiple R-Squared: 0.9495, Adjusted R-squared: 0.9485
F-statistic: 902.8 on 1 and 48 DF, p-value: 2.2e-16
Modelos de regresión de tipo no paramétrico
El programa R permite el ajuste de modelos de tipo no paramétrico, te-
niendo implementadas métodos para la elección de la ventana. Analizaremos
un ejemplo clásico en este tipo de estudios como es el de los datos de motos
de Silverman (1985), correspondiente a la simulación de accidentes de motos
(Motorcycle Accident).
Instalamos en primer lugar la librería correspondiente de suavizado tipo
núcleo:
library(KernSmooth)
A continuación cargamos los datos, para ello es necesario cargar la librería
MASS que es donde se encuentran los datos.
library(MASS)
attach(mcycle)
mcycle
times accel
1 2.4 0.0
INTRODUCCIÓN AL PROGRAMA ESTADíSTICO R 245
0 10 20 30 40 50
010
203
04
05
0
x
y
Figura 12-6 Ajuste de un modelo lineal. En rojo el modelo con pesos.
2 2.6 -1.3
. . .
plot(times,accel,main=regresión paramétrica polinómica")
lines(times,fitted(lm(accel~poly(times,3)))) # ajuste de un polinomio n=3
lines(times,fitted(lm(accel~poly(times,5))),lty=3) # ajuste de un polinomio
n=5
legend(40,-100,c(“grado 3”,”grado 5”),lty=c(1,3),bty=”n”)
Veamos ahora un suavizado de los datos de tipo no paramétrico (Smoothing
Splines)
plot(times,accel,main="Sauvizado no paramétrico: Smoothing Splines")
lines(smooth.spline(times,accel)) # ajuste Smoothing Splines
plot(times,accel,main="Sauvizado no paramétrico: Kernel Smoothing")
lines(ksmooth(times,accel,”normal”,bandwidth=5)) # ajuste Kernel Smooth-
ing (5)
lines(ksmooth(times,accel,”normal”,bandwidth=2),lty=3) #Kernel Smooth-
ing (2)
legend(40,-100,c(“ventana 5”,”ventana 2”),lty=c(1,3),bty=”n”)
Observamos la diferencia de suavizado en función del tamaño de la ventana,
para elegir el tamaño óptimo podríamos usar el método de Sheather-Jones
c(width.SJ(times,method="dpi"))
[1] 16.95553
246 APÉNDICES
10 20 30 40 50
-10
0-5
00
50
regresión paramétrica polinómica
times
acc
el
grado 3grado 5
Figura 12-7 Ajuste mediante modelos de regresión de tipo polinómico.
12.2.13. Distribuciones de Probabilidad
El programa R incorpora la mayoría de las distribuciones de probabilidad,
permitiendo la realización de diversos cálculos. Existen cuatro operaciones bási-
cas indicadas por las letras:
d: calcula a densidad de probabilidad f en un punto dado
p : calcula la función de distribución F en un punto dado
q : calcula el cuantil correspondiente
r : permite elegir una muestra aleatoria de la distribución
Para usar estas ordenes es necesario combinar una de las letras (d, p, q, r)
con una abreviatura del nombre de la distribución, por ejemplo para calcular
probabilidades usamos: pnorm para normal, pexp para exponencial, pbinom
para binomial, ppois para Poisson. Analizaremos las distribuciones más cono-
cidas.
Distribución Normal
Esta distribución está implementada con argumentos que combinan las le-
tras (d, p, q, r) con el término norm. En un principio se asume una distribución
N(0,1)
dnorm(-1.96)
[1] 0.05844094
pnorm(-1.96)
[1] 0.02499790
qnorm(0.975)
[1] 1.959964
INTRODUCCIÓN AL PROGRAMA ESTADíSTICO R 247
10 20 30 40 50
-10
0-5
00
50
Sauvizado no paramétrico: Smoothing Splines
times
acce
l
Figura 12-8 Ajuste de los datos mediante modelos de regresión no paramétrica
(Spline).
rnorm(15)
[1] 0.6185623 1.6087680 2.2472951 0.5448082 0.4775086 -0.3435122
[7] 0.1805056 -0.5562619 1.9748115 2.1843846 0.1008427 -0.8164894
[13] 1.4314991 0.3957931 1.8978333
También obtendríamos soluciones iguales si utilizamos la función de densi-
dad directamente:
(1/sqrt(2*pi)) * exp((-1/2)*(-1.96)^2)
[1] 0.2419707
args(rnorm)
function (n, mean = 0, sd = 1)
plot(function(x) dnorm(x, 100, 8), 60, 140, ylab=“f(x)”)
plot(function(x) dnorm(x, 90, 8), 60, 140, add=T, col=2)
plot(function(x) dnorm(x, 100, 15), 60, 140, add=T, col=3)
legend(120, 0.05, c("N(100,64)","N(90,64)","N(100,225)"), fill=1:3)
12.2.14. Inferencia estadística con R
Podemos generar muestras de una distribución usando el generador de
números aleatorios que está implementado con la orden set.seed (seed del in-
glés). Cada vez que utilizamos el comando rnorm se producen diferentes mues-
tras, debido a que utiliza un valor, llamado senilla, para el algoritmo de gen-
eración distinta, se puede usar la función set.seed para controlar la senilla del
generador de números aleatorios.
248 APÉNDICES
10 20 30 40 50
-10
0-5
00
50
Sauvizado no paramétrico: Kernel Smoothing
times
acce
lventana 5ventana 2
Figura 12-9 Ajuste mediante el método núcleo con dos ventanas distintas.
set.seed(2000) # define la semilla
rnorm(10) # genera 10 numeros de una N(0,1)
Intervalos de confianza
Vamoa a utilizar el R para obtener intervalos de confianza para diferentes
parámetros de distribuciones de probabilidad.
Intervalo para la media de una distribución normal
Veamos un ejemplo, dados una serie de valores que introducimos en el vector
tiempo
tiempo - c(2.9, 3.4, 3.5, 4.1, 4.6, 4.7, 4.5, 3.8, 5.3, 4.9,
4.8, 5.7, 5.8, 5.0, 3.4, 5.9, 6.3, 4.6, 5.5, 6.2)
Calculamos el tamaño de la muestra, n, la media mu y la varianza muestral
var.
n - length(tiempo)
mu - mean(tiempo)
var - var(tiempo)
Calculamos el intervalo al 95% de confianza para la media siguiendo la
fórmula:
ic - mu + qt(c(0.025, 0.975), df = n-1) * sqrt(var/length(tiempo))
ic
[1] 4.278843 5.211157
También se puede usar la función t.test para obtener el intervalo anterior,
entre otros resultados.
t.test(tiempo)
INTRODUCCIÓN AL PROGRAMA ESTADíSTICO R 249
60 80 100 120 140
0.00
0.01
0.02
0.03
0.04
0.05
xf(x
)
N(100,64)N(90,64)N(100,225)
Figura 12-10 Diferentes curvas de funciones de densidad normal.
Intervalos de confianza Bootstrap en R
Calculamos los intervalos boostrap para el 95% y el 99% de confianza para
los datos del fichero chem.
library(boot)
chem.boot-boot(chem,function(x,i) median(x[i]),R=500)
chem.boot
boot(data = chem, statistic = function(x, i) median(x[i]), R = 500)
Bootstrap Statistics :
original bias std. error
t1* 3.385 -0.10071 0.1906456
Level Normal Basic
95% ( 3.112, 3.859 ) ( 3.170, 3.893 )
99% ( 2.995, 3.977 ) ( 3.070, 3.970 )
12.2.15. Contraste de hipótesis
Al igual que en los intervalos es posibles realizar distintos Testes de Hipóte-
sis, analizaremos un ejemplo en el que se quiere contrastar la igualdad de medias
del tiempo de dos máquinas A y B. Para ello contrastaremos la igualdad de
varianzas y luego las medias:
Máquina A 1435 1237 1326 1442 1441 1337
Máquina B 1433 1238 1332 1348 1442 1342
El valor del estadístico del contraste se calcula como el cociente de las
cuasivarianzas muestrales de ambas muestras
Vamos a efectuar los análisis con R paso a paso:
250 APÉNDICES
ma - c(1435, 1237, 1326, 1442, 1441, 1337)
na - length(ma)
mb - c(1433, 1238, 1332, 1348, 1442, 1342)
nb - length(mb)
Calculamos las varianzas (téngase en cuenta que ya calcula directamente la
cuasivarianza con la orden var)
ma.v - var(ma)
mb.v - var(mb)
Calculamos el valor del estadístico del contraste y el p-valor:
Fcalc - ma.v/mb.v
pval - 2 * pf(Fcalc, na-1, nb-1, lower=F)
pval
[1] 0.8111926
Como el p-valor es alto no rechazamos la igualdad de varianzas.
Podríamos obtener el mismo resultado utilizando la función var.test. Veamos
esta función:
var.test(ma, mb)
F test to conpare two variances
data: ma and mb
F = 1.0821, nun df = 5, denom df = 5, p-value = 0.9331
12.2.16. Estimación no paramétrica de la densidad
La necesidad de estudiar distribuciones de las que no se pueden estimar
fácilmente sus parámetros, ha llevado al desarrollo de métodos de tipo no
paramétrico que permiten estimar, sin conocer los parámetros, densidades o
distribuciones de una población. En concreto, analizaremos la estimación no
paramétrica para la función de densidad. Para mayor información véase la
salida:
help(density)
La estimación de densidades se puede hacer con la función density. Estimara
una función a partir de los datos sin forma paramétrica establecida. Veremos
el ejemplo de datos de precipitaciones disponible en R
data(precip)
Veamos los argumentos disponibles para la estimación de la densidad:
args(density)
function (x, bw = "nrd0", adjust = 1, kernel = c("gaussian",
.epanechnikov", rectangular", "triangular", "biweight",
çosine", .optcosine"), window = kernel, width, give.Rkern = FALSE,
n = 512, from, to, cut = 3, na.rm = FALSE)
plot(density(precip, bw=1), main=““)
rug(precip)
lines(density(precip, bw=5), lty=2)
INTRODUCCIÓN AL PROGRAMA ESTADíSTICO R 251
lines(density(precip, bw=10), lty=3)
legend(5, 0.045, c(“bw=1”, “bw=5”, “bw=10”), lty=1:3)
10 20 30 40 50 60 70
0.0
00
.01
0.0
20.
030
.04
N = 70 Bandwidth = 1
De
nsi
ty
bw=1bw=5bw=10
Figura 12-11 Densidad estimada usando con diferentes valores para el argumento
bw.
Otro argumento importante es el tipo de función de pesos, o función núcleo
(kernel). Veamos diferentes funciones núcleo implementadas en R:
(kernels - eval(formals(density)$kernel))
plot (density(0, bw = 1), xlab = , main="kernels con bw = 1")
for(i in 2:length(kernels))
lines(density(0, bw = 1, kern = kernels[i]), col = i)
legend(1.5,.4, legend = kernels, col = seq(kernels),
lty = 1, cex = .8, y.int = 1)
plot(density(precip), main=““)
rug(precip)
lines(density(precip, ker=“epa”), lty=2)
lines(density(precip, ker=“rec”), col=2)
lines(density(precip, ker=“tri”), lty=2, col=2)
lines(density(precip, ker=“biw”), col=3)
lines(density(precip, ker=“cos”), lty=3, col=3)
legend(0, 0.035,
legend = c("gaussian", .epanechnikov", rectangular",
"triangular", "biweight", çosine"),
lty = rep(1:2,3), col = rep(1:3, each=2))
Cálculo de la ventana óptima: Analizando los resultados anteriores podemos
concluir que el ancho de banda (bandwidth - bw) tiene mucha influencia en la
252 APÉNDICES
-3 -2 -1 0 1 2 3
0.0
0.1
0.2
0.3
0.4
kernels con bw = 1
De
nsi
ty
gaussianepanechnikovrectangulartriangularbiweightcosineoptcosine
Figura 12-12 Diferentes núcleos implementados por la función density.
estimación de la densidad, siendo el tipo de núcleo (kernel) de menor impor-
tancia. Existen diferentes métodos para la estimación adecuada del ancho de
ventana, que también pueden ser especificados en R mediante el argumento
bw, en principio se usa por defecto (“default”) el método nrd0 que implementa
la regla propuesta por Silverman. Para utilizar el método de Sheather & Jones
podemos utilizar el argumento bw=“sj”
precip.dSJ - density(precip, bw=“sj”)
plot(precip.dSJ)
rug(precip)
12.2.17. Diseño de Experimentos con R
Analizaremos las posibilidades que ofrece el R para el estudio del diseño de
experimentos con algunos ejemplos clásicos.
Diseño para la velocidad de la luz: Analizar un experimento clásico de
Michaelson y Morley para medir la velocidad de la luz. Los datos pueden obten-
erse haciendo clic en: morley.tab. Hemos guardado este archivo en el directorio
INTRODUCCIÓN AL PROGRAMA ESTADíSTICO R 253
0 20 40 60 80
0.0
00
.01
0.0
20
.03
N = 70 Bandwidth = 3.848
De
nsi
ty
gaussianepanechnikovrectangulartriangularbiweightcosine
Figura 12-13 Densidad estimada usando la función density con diferentes valores
para el argumento kernel.
c:\tempPara ver el archivo: file.show(ç:\\temp\\morley.tab.txt")Leeremos los datos cono un “data-frame”. Se trata de 5 experimentos
(columna Exp.), cada un con 20 replicas (columna Run), siendo sl el valor
medido de la velocidad de la luz.
luz - read.table(ç:\\temp\\morley.txt")luz
# A continuación definiremos Expt y Run cono factores
luz$Expt - factor(luz$Expt)
luz$Run - factor(luz$Run)
summary(luz)
Expt Run Speed
1:20 1 : 5 Min. : 620.0
2:20 2 : 5 1st Qu.: 807.5
3:20 3 : 5 Median : 850.0
4:20 4 : 5 Mean : 852.4
5:20 5 : 5 3rd Qu.: 892.5
6 : 5 Max. :1070.0
(Other):70
# Volvemos al data-frame luz
attach(luz)
254 APÉNDICES
0 20 40 60 80
0.0
00
.01
0.0
20
.03
density(x = precip, n = 1000)
N = 70 Bandwidth = 3.848
Den
sity
nrd0nrducvbcvSJ-steSJ-dpi
Figura 12-14 Resultados obtenidos con diferentes métodos de estimación de la
densidad.
:
plot(Expt, Speed, main="Velocidad de la luz", xlab=.Experimento Número")
Hacemos un estudio del experimento analizando con “runs” y “experi-
ments” como factores y analizamos los resultados:
fm - aov(Speed ~Run + Expt, data=luz)
summary(fm)
names(fm)
fm$coef
fm - aov(Speed ~Run + Expt, data=luz)
summary(fm)
Df Sum Sq Mean Sq F value Pr(F)
Run 19 113344 5965 1.1053 0.363209
Expt 4 94514 23629 4.3781 0.003071 **
Residuals 76 410166 5397
–
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
Ejemplo 12.1 (Ejemplo del fertilizante) Se quiere averiguar si tres ferti-
lizantes, A,B y C presentan diferencias significativas en cuanto a sus efectos
sobre el aumento de la cosecha de maíz. Con este propósito se eligieron al azar
15 parcelas a las que se fertilizó aleatoriamente con cada uno de los fertilizantes
en cuestión. Los aumentos de cosecha obtenidos fueron los siguientes:
A 39 33 39 35 32
INTRODUCCIÓN AL PROGRAMA ESTADíSTICO R 255
1 2 3 4 5
700
800
90
01
00
0
Velocidad de la luz
Experimento Número
Figura 12-15 Comparamos los 5 experimentos mediante un gráfico de cajas
múltiple.
B 36 40 35 30 29
C 33 33 36 26 35
A la vista de estos datos y recortando =0’1. ¿Puede inferirse que existen
diferencias significativas entre los tres fertilizantes?
En primer lugar introducimos los datos en R:
diseno2-edit(data.frame())
diseno2
Al igual que en el diseño anterior indicamos cual es el factor y cual la
respuesta:
diseno2$resp
diseno2$fertiliz
is.factor(diseno2$fertiliz)
is.numeric(diseno2$resp)
diseno2$resp
[1] 39 33 39 35 32 36 40 35 30 29 33 33 36 26 35
diseno2$fertiliz
[1] A A A A A B B B B B C C C C C
Levels: A B C
is.factor(diseno2$fertiliz)
[1] TRUE
is.numeric(diseno2$resp)
[1] TRUE
256 APÉNDICES
Obtendremos algunas medidas y gráficos para estos datos, para ello es in-
teresante utilizar la orden attach con idea de poder usar las variables definidas.
search()
attach(diseno2)
diseno2.m - tapply(resp, fertiliz, mean)
diseno2.m
A B C
35.6 34.0 32.6
diseno2.v - tapply(resp, fertiliz, var)
diseno2.v
A B C
10.8 20.5 15.3
plot(diseno2)
points(diseno2.m, pch="x", col=2, cex=1.5)
boxplot(resp ~fertiliz)
A B C
26
28
303
23
436
38
40
Figura 12-16 Diagramas de caja para el anova de fertilizantes.
bartlett.test(resp, fertiliz)
Bartlett test for homogeneity of variances
data: resp and fertiliz
Bartlett’s K-squared = 0.3641, df = 2, p-value = 0.8336
Como resulta un p-valor de mayor de 0.8 podríamos aceptar la igualdad de
varianzas. Para hacer el análisis de la varianza (ANOVA) procederemos con la
orden aov.
INTRODUCCIÓN AL PROGRAMA ESTADíSTICO R 257
En el objeto diseno2.anova guardamos los resultados del ANOVA realizado.
Se observa un p-valor de 0.5042 por lo que no rechazaríamos la igualdad de
la respuesta a los tratamientos de fertilizante. Vamos inspeccionar este objeto
más cuidadosamente y hacer también un estudio de los residuos:
Podríamos analizar el estudio de la normalidad de los residuos mediante el
test de shapiro-wilk:
shapiro.test(residuals(diseno2.anova)).
258 APÉNDICES
Bibliografía
[1] Abu-Shawiesh MO, Abdullah MB. New robust statistical process control
chart for location. Quality Engineering 2000; 12: 149-159.
[2] Albin S. L., Kang L., Sheha G., (1997), An and EWMA chart for indi-
vidual observations. Journal of Quality Technology, 29, 1, 41-48.
[3] Albing M. Process capability indices for Weibull distributions and up-
per specification limits. Quality and Reliability Engineering International
2009; 25: 317-334.
[4] Alfaro Navarro J. L., Métodos multivariantes en control estadístico de la
calidad. Facultad de Ciencias Económicas y Empresariales de Albacete.
Universidad de Castilla-La Mancha.
[5] Alt F. B., (1985), Multivariate Control Charts in Encyclopedia of Statis-
tical Sciences, vol. 6. S. Kotz y N. L. Johson, Eds. Wiley, New York.
[6] Alwan L. C., (1986), CUSUM Quality Control-Multivariate Approach,
Communications in Statistics, 15, 3531-3543.
[7] Anderson, T.W. (1984). An Introduction to Multivariate StatisticalAnalysis. Wiley.
[8] Aparisi F., (1996), Hotelling’s T2 control chart with adaptive sample
sizes, International Journal of Production Research, 34, 2853-2862.
[9] Aparisi F., García Díaz J. Carlos, Aumento de la potencia del gráfico de
control multivariante T2 de Hotelling utilizando señales adicionales de
falta de control. Estadística española. Vol 43, Núm. 148, 2001, págs. 171
a 188.
[10] Artiaga, R., Cao, R. y Naya, S. Local Polynomial estimation of TGA
derivatives using logistic regression for pilot bandwidth selection. Actas
de la 5 Mediterranean Conference on Calorimetry and Thermal Analy-
sis, 86.
[11] Artiaga, R., García, A., Varela, A., Mier, J. L., Naya, S. y Graña,
M (2002). DMTA study of a nickel-titanium wire. Journal of Thermal
Analysis and Calorimetry, 70, 199-207.
[12] Bai, D. S. y Choi, I. S. (1995) X and R Control Charts for Skewed
Populations. Journal of Quality Technology, 27, pp. 120-131.
BIBLIOGRAFÍA 259
[13] Doganaksoy, N., Faltin, F. W. y Tucker. W.T. (1991), Identification of
out-of-control characteristics in a multivariate manufacturing environ-
ment, Communications in Statistics: Theory and Methods, Vol. 20, pp.
2775-2790.
[14] Blazek, L. W., Novic B. y Scott M. D. (1987): Displaying Multivariate
Data Using Polyplots. Journal of Quality Techonolgy. 19 (2) pp 69-74.
[15] Borges W, Ho LL. A fraction defective based capability index. Quality
and Reliability Engineering International 2001; 17: 447-458.
[16] Brook, D, Evans D (1972), An approach to the probability distribution
of cusum run length, Biometrika 59, 539-548.
[17] Breyfogle, F.W. (2003). Implementing Six Sigma, second edition. New
York: John Wiley and Sons.
[18] Box G. E. P. y Luceño A. (1997). Statistical Control by Monitoring and
Feedback Adjustment. Wiley. New York.
[19] Capilla C, Ferrer A, Romero R. y Hualda A. (1999). Integration of sta-
tistical and engineering process control in a continuous polymerization
process. Technometrics, 41, 14—28.
[20] Carot Alonso, V. (1996): Control Estadístico de Calidad. Servicio de
Publicaciones de la Universidad Politécnica de Valencia, Valencia.
[21] Castillo E. (2002). Statistical Process Adjustment for Quality Control.
Wiley. New York.
[22] Chakraborti, S., Van Der Laan, P. y Bakir, S. T. (2001) Nonparamet-
ric Control Charts: An Overview and Some Results. Journal of Quality
Technology, 33, pp. 304-315.
[23] Chandrasekaran, S. English, J. R.Disney R. L. (1995), Modeling and
analysis of EWMA control schemes with variance-adjusted control limits,
IIE Transactions 277, 282-290.
[24] Chen KS, Pearn WL. An application of non normal capability indices.
Quality and Reliability Engineering International 1997; 13: 355-360.
[25] Chou YM, Owen DB. On the distribution of the estimated process capa-
bility indices. Communications in Statistics. Theory and Methods 1989;
18: 4549- 4560.
[26] Chua M. K., Montgomery D. C., Investigation and characterization of a
control scheme for multivariate quality control. Quality and Reliability
Engineering International, 1992, 8: 37-44.
260 BIBLIOGRAFÍA
[27] Chung K., A Simplified Procedure for the Economic Design of Con-
trol Charts, International Journal of Production Research, Vol. 28, 1990,
pp.1239-1246.
[28] Crosier R. B. (1986), A new two-sided cumulative quality control scheme,
Technometrics 28, 187-194. xewma.arl for zero-state ARL computation
of EWMA control charts and xcusum.ad for the steady-state ARL.
[29] Crosier R. B., (1988), Multivariate Generalization of Cumulative Sum
Quality Control Schemes, Technometrics, 30, 291-303.
[30] Crowder S. V. (1987), A simple method for studying run-length distrib-
utions of exponentially weighted moving average charts, Technometrics
29, 401-407.
[31] Clements JA. Process capability indices for non normal calculations.
Quality Progress 1989; 22: 49-55.
[32] Dahlgaard, J.J. and Dahlgaard-Park, S.M. (1999). Lean production,
TQM and economic development. Proceeding of the Conference in Lean
Thinking, Stockholm, Sweden.
[33] Deming, W.E. (1986), Out of the Crisis, Massachusetts Institute of Tech-
nology, Center for Advanced Engineering Study, Cambridge, MA.
[34] Deming, W.E. (1993), The New Economics — for Industry, Government,
Education, Massachusetts Institute of Technology, Center for Advanced
Engineering Study, Cambridge, MA.
[35] Duncan A. J., The Economic Design of Charts when there is a multiplicity
of Assignable Causes, Journal of the American Statistical Association,
Vol. 66-333, 1971, pp. 107-121.
[36] Duncan A. J., Control de calidad y estadística industrial. Ed. Alfaomega.
México D.F. 1996.
[37] Duncan A. J. (1986): Quality Control and Industrial Statistics, Home-
wood, IL: Irwin.
[38] Eubank, R.L. (1988). Spline Smoothing and Nonparametric Regression.
Marcel Dekker, New York.
[39] Fuchs, C. y Kenett, R.S.(1998): Multivariate Quality Control. Marcel
Dekker, New York.
[40] George, S. (1992). The Baldrige Quality System, Wiley, New York, NY.
[41] George, M. L. (2003). Lean Sigma for service. New York: McGraw-Hill.
BIBLIOGRAFÍA 261
[42] Goel, A. L., Wu S. M.(1971), Determination of A.R.L. and a contour
nomogram for CUSUM charts to control normal mean, Technometrics
13, 221-230.
[43] Hoerl, R. W. (2001). Six Sigma Black Belts: what do they need to know?
Journal of Quality Technology 33 4:391—435.
[44] Hoerl, R. W., and R. D. Snee. (2002). Statistical thinking: improving
business performance. Pacific Grove, CA: Duxbury Press.
[45] Hotelling H., (1947), Multivariate Quality Control. Techniques of Statis-
tical Analysis, (Eds. C. Eisenhart, M. Hastay y W. A. Wallis, McGraw-
Hill), 111-184.
[46] Ishikawa, K. (1994): Introducción al Control de Calidad. Díaz de Santos.
[47] Huber P. Robust Statistics. John Wiley & Sons: New York, 1981.
[48] Jackson D. A., (1993), Stopping Rules in Principal Components Analysis:
A Comparison of Heuristical and Statistical Approaches. Ecology, 74, 8,
2204-2214.
[49] Jackson J. E. (1972). All Count Distributions Are Not Alike, Journal of
Quality Technology 4(2):86-92.
[50] Jackson J. E., (1985), Multivariate Quality Control, Communications in
Statistics, 14 , pp. 2657-2688.
[51] Jones, L. A. y Woodall, W. H. (1998) The Perfomance of Bootstrap
Control Charts. Journal of Quality Technology, 30, No 4, pp. 362-375.
[52] Juran, J.M. (1951). The Quality Control Handbook, 1 Ed., McGraw-
Hill, New York, NY.
[53] Juran, J. M. (1974). Jurans Quality Control Handbook, 3rd edition.
McGraw-Hill, New York.
[54] Juran, J.M. (1989). Juran on Leadership for Quality — An Executive
Handbook, The Free Press, New York, NY.
[55] Kane VE. Process capability indices. Journal of Quality Technology 1986;
18: 41-52.
[56] Kotz S, Johnson NL. Process Capability Indices. Chapman & Hall: Lon-
don, 1993.
[57] Kotz S, Johnson NL. Process capability indices-A review, 1992 — 2000
with discussion. Journal of Quality Technology 2002; 34: 2 - 53.
262 BIBLIOGRAFÍA
[58] Kotz S, Lovelace CR. Introduction to Process Capability Indices: Theory
and Practice. Arnold: London, 1998.
[59] Kourti T. and MacGregor J. F., (1996), Multivariate SPC methods for
process and product monitoring. Journal of Quality and Technology, 28:
409-428.
[60] Lin PC, Pearn WL. Testing process capability for one-sided specification
limit with application to the voltage level translator. Microelectronics
Reliability 2002; 42: 1975-1983.
[61] Liu R. 1995. Control Charts for Multivariate Processes. Journal of the
American Statistical Association, 90 (432): 1389-1387.
[62] Liu R, K Singh and J Tenkg. 2004. DDMA-charts: Nonparametric multi-
variate moving average control charts based on data depth. Allgemeines
Statistiches Archiv, 88: 235-258.
[63] Liu R. 1990. On a notion of data depth based on random simplices. The
Annals of Statistics, 18 :405-414.
[64] Liu R, J Parelius, K Singh, 1999. Multivariate analysis by data depth:
Descriptive statistics, graphics and inference (with discussions). The An-
nals of Statistics, 27: 783-858.
[65] Lorenzen T. y Vance L., The Economic Design of Control Charts: A
Unified Approach, Technometrics, Vol. 28, 1986, pp. 3-10.
[66] Lowry C. A., Montgomery D. C., A review of multivariate control charts.
IIE Transactions 1995, 27: 800-810.
[67] Lowry, C. A. , Woodall, W. H. , Champ, C. W. & Rigdon, S. E (1992):
A Multivariate Exponentially Weighted Moving Average Control Chart.
Technometrics, 34.
[68] Lucas, J. M. Crosier R. B. (1982), Fast initial response for cusum quality-
control schemes: Give your cusum a headstart, Technometrics 24, 199-
205.
[69] Lucas J. M.,Saccucci M. S. (1990), Exponentially weighted moving av-
erage control schemes: Properties and enhancements, Technometrics 32,
1-12.
[70] Luceño. A. (1996). A process capability index with reliable confidence
intervals. Communications in Statistics - Simulation and Computation.
25, 1, 235 — 245.
[71] Mason N. Tracy J. and Young R, (1992), Multivariate control charts for
individual observations. Journal of quality technology. 24, 2, 88-95.
BIBLIOGRAFÍA 263
[72] Mason R. L., Tracy N. D., Young J. C., A practical approach for interpret-
ing multivariate T2 control chart signals. Journal of Quality Technology,
1997, 29: 396-406.
[73] Mason R. L., Tracy N. D., Young J. C., Decomposition of T2 for multi-
variate control chart interpretation. Journal of Quality Technology 1995
27: 99-108.
[74] Mason R. L., Young J. C., Improving the sensitivity of the T2 statistic
in multivariate process Control. Journal of Quality Technology, 1999, 31:
155-165.
[75] Mc. Williams T. P., Economic Control Chart Designs and the In-Control
Time Distribution: A Sensitive Study, Journal of Quality Technology,
Vol. 21-2, 1989, pp. 103- 110.
[76] Mitra, A. (1998): Fundamentals of Quality Control and Improvement.
Prentice Hall.
[77] Montgomery, D. C. (2009). Introduction to Statistical Quality Control.
Sixth edition. John Wiley & Sons, Hoboken, NJ.
[78] Nelson LS (1994). A Control Chart for Parts-Per-Million Nonconforming
Items, Journal of Quality Technology 26(3):239-240.
[79] Nembhard H, Changpetch P. (2006). Detected monitoring using cuscore
charts for seasonal time series. Quality and Reliability Engineering In-
ternational. 10,766-786.
[80] Page E. S. (1954). Continuous inspection schemes. Biometrika, 41, 100-
15.
[81] Page E. S., (1955), Control Charts with Warning Limits, Biometrika, 42,
243-257.
[82] Page E. S., (1962). A modified Control Chart with warning lines, Bio-
metrika, 49, 171-176.
[83] Palmer K, Tsui K-L. A review and interpretations of process capability
indices. Annals of Operations Research 1999; 87: 31-47.
[84] Park, S.H. (2003), Six Sigma for Quality and Productivity Promotion,
Asian Productivity Organization, Tokyo.
[85] Pearn WL, Chen KS. One-sided capability indices Cpu and Cpl: Decision
making with sample information. International Journal of Quality and
Relability Management 2002; 19: 221-245.
264 BIBLIOGRAFÍA
[86] Pearn W, Kotz S, Johnson NL. Distributional and inferential properties
of process capability indices. Journal of Quality Technology 1992; 24:
216-231.
[87] Peña D. (1987). Estadística modelos y métodos. Modelos lineales y series
temporales. Alianza editorial. Madrid, 187-497.
[88] Pignatello J. J. JR., Y Runger G. C., (1990), Comparisons of multivariate
CUSUM charts, Journal of Quality Technology, 22, 173- 186.
[89] Plackett R.L. y Burman, J.P. (1946). The Design of Optimum Multifac-
torial Experiments", Biometrika 33 (4), 305-25.
[90] Prasad S, Bramorski T. Robust process capability indices. International
Journal of Management Science 1998; 26: 425-435.
[91] Knoth S. (2003), EWMA schemes with non-homogeneous transition ker-
nels, Sequential Analysis 22, 241-255.
[92] Knoth S. (2004), Fast initial response features for EWMA Control
Charts, forthcoming in Statistical Papers.
[93] Rhoads, T. R., Montgomery D. C., Mastrangelo C. M. (1996), Fast initial
response scheme for exponentially weighted moving average control chart,
Quality Engineering 9, 317-327.
[94] Ramsay, J. y Silverman, B. (1997). Functional Data Analysis. Springer-
Verlag, New York.
[95] Roberts S., (1959), Control Chart Tests Based on Geometric Moving
Averages. Technometrics 1, 239-250.
[96] Runger G. C., Alt F. B., Montgomery D. C., Contributors to a mul-
tivariate SPC chart signal. Communications in Statistics - Theory and
Methods, 1996, 25: 2203-2213.
[97] Ryan T. P., (2000). Statistical Methods for Quality Improvement; John
Wiley: New York.
[98] Seber G. A. F., (1984), Multivariate Observations, John Wiley & sons,
Eds., New York.
[99] Shewhart W. A., (1931). Economic Control of Quality of Manufactured
Products, New York, D. Van Nostrand Co., Inc.
[100] Shewhart, W. A. (1939): Statistical Methods from the Viewpoint of Qual-
ity Control. Graduate School of the Department of Agriculture, Wash-
ington, D.C.
BIBLIOGRAFÍA 265
[101] Shewhart W.A., (1941), Contribution of Statistic to the Science of En-
gineering. Fluid Mechanics and Statistical Methods in Engineering. Uni-
versity of Pennsylvania Press, Philadelphia, PA, pp. 97-124.
[102] Shewhart W.A., (1986): Statistical Methods from the Viewpoint of Qual-
ity Control. (Reprint). Dover Publications, New York.
[103] Shewhart, Walter A. Economic control of quality of manufactured prod-
uct. New York: D. Van Nostrand Company. pp. 501
[104] Sparks R. S., Adolphson A., Phatak A., Multivariate process monitoring
using the dynamic biplot. International Statistical Review, 1997, 65: 325-
349.
[105] Steiner S. H. (1999), EWMA control charts with time-varying control
limits and fast initial response, Journal of Quality Technology 31, 75-86.
[106] Taguchi G., Introduction to Quality Engineering-Designing Quality into
Products and Processes, 1986, Kraus International, Asian Productivity
Organisation, Japan.
[107] Timm N. H., Multivariate quality control using finite intersection tests.
Journal of Quality Technology, 1996, 28: 233-243.
[108] Tracy N. D., Young J. C. Y Mason R. L. (1992), Multivariate Control
Charts for Individual Observations, Journal of Quality Technology, 24,
88-95.
[109] Vermat, M. B., Ion, R., Does, R.J. y Klaassen, C. (2003) A Comparison
of Shewhart Individuals Control Chart Based on Normal, Non-Normal,
and Extreme Value Theory. Quality and Reliability Engineering Interna-
tional, 19, pp. 337-353.
[110] Chatfield, C., Collins, A. J. (1980). Introduction to multivariateanalysis. Chapman & Hall.
[111] Cuadras, C.M. (1991). Métodos de Análisis Multivariante. EditorialPPU.
[112] Drapper, N. y Smith, H. (1998). Applied Regression Analysis.Wiley.
[113] Fan, J. y Gijbels, I. (1996). Local Polynomial Modelling and its Ap-plications. Chapman and Hall, London.
[114] Goldstein M. y Dillon, W. R. (1984). Multivariate Analysis: Meth-ods and Applications. Wiley.
[115] Jambu, M. (1991). Exploratory and Multivariate Data Analysis. BostonAcademic Press.
266 BIBLIOGRAFÍA
[116] Jobson, J.D. (1992). Applied Multivariate Data Analysis. Springer-Verlag.
[117] John Verzani (2005). Using R for Introductory Statistics. Chapman &Hall.
[118] Mardia, K.V., Kent, J.T. y Bibby, J.M. (1994).Multivariate Analy-sis. Academic Press.
[119] Muirhead, R. J. (1982). Aspects of multivariate statistical theory. JohnWiley & Sons.
[120] Peña Sánchez de Rivera, D. (2002). Regresión y Diseño de Exper-imentos. Alianza Editorial.
[121] Rencher, A.C. (1998). Multivariate Statistical Inference and Applica-tions. Wiley.
[122] Silverman, B. W. (1985) Some aspects of the spline smoothing ap-proach to non-parametric curve fitting. Journal of the Royal Statistical
Society series B 47, 1—52.
[123] Venables, W. N. and Ripley, B. D. (1999)Modern Applied Statisticswith S-PLUS. Third Edition. Springer.
[124] Vilar Fernández, J.M. (2003). Modelos Estadísticos Aplicados. Pu-blicaciones de la UDC.
[125] Somerville, S. E. &Montgomery, D. C. (1996). Process Capability Indices
and Nonnormal Distributions. Quality Engineering, 9, 305-316.
[126] Shore H. A new approach to analysing non-normal quality data with
applications to process capability analysis. International Journal of Pro-
duction Research 1998; 36: 1917-1933.
[127] Tang LC, Than SE. Computing process capability indices for non normal
data: A review and comparative study. Quality and Reliability Engineer-
ing International 1999; 15: 339-353.
[128] US Military Handbook 217F, Reliability Prediction of Electronic Equip-
ment. USA, 1991.
[129] Vännman, K. (1995). A Unified Approach to Capability Indices. Statis-
tica Sinica, 5, 805-820.
[130] Vännman, K. (1998). Families of Capability Indices for One-sided Spec-
ification. Limits. Statistics, 31, 43-66.
BIBLIOGRAFÍA 267
[131] Vännman, K. (2001). A Graphical Method to Control Process Capability.
Frontiers in Statistical Quality Control, No 6, Editors: Lenz, H.-J. &
Wilrich, P.-TH. Physica-Verlag, Heidelberg, 290-311.
[132] Wasterhuis J. A., Gurden S. P, Smilde A. K., (2000), Generalized contri-
bution plots in multivariate statistical process monitoring. Chemometrics
and Intelligent Laboratory Systems, 51: 95-114.
[133] WESTERN ELECTRIC, (1956), Statistical Quality Control Handbook,
Select Code 700-444. Western Electric Corporation, Indianapolis, IN.
[134] Wierda S. J., Multivariate statistical process control-recent results and
directions for future research. Statistica Neerlandica, 1994, 48: 147-168.
[135] Woodall WH, Ncube MM. Multivariate CUSUM quality control proce-
dures. Technometrics, 1985, 27:285-292.
[136] Woodall, W.H. (1985). The statistical design of quality control charts.
The Statistician, 34. pp. 155-160.
[137] Waldmann K. H. (1986), Bounds for the distribution of the run length of
one-sided and two-sided CUSUM quality control schemes, Technometrics
28, 61-67.
[138] Voehl, F. (2000). Six sigma: a breakthrough strategy for results. The
STANDARD, Vol. 2000-1, The Newsletter of the Measurement Quality
Division, American Society for Quality.
[139] Welch, J. F. (2001). Jack: straight from the gut. New York: Warner Busi-
ness Books.
[140] Willeman, T. R. y Runger, G. C. (1996) Designing Control Charts Using
an Empirical Reference Distribution. Journal of Quality Technology, 28,
pp. 31-38.
[141] Womack, J.P. and Jones, D.T. (1996). Lean Thinking — Banish Waste
and Create Wealth in your Corporation, Simon & Schuster, London.
[142] Womack, J.P., Jones, D.T. and Roos, D. (1990). The Machine that
Changed the World, Maxwell Macmillan International, New York, NY.
[143] Woodall, W.H. (1985). The statistical design of quality control charts.
The Statistician, 34. pp. 155-160.
[144] Wu, H.-H. & Swain, J. J. (2001). A Monte Carlo Comparison of Capa-
bility Indices when Processes are Non-normally Distributed. Quality and
Reliability Engineering International, 17, 219-231.
[145] Zink, K. (1997), Succesful TQM — Inside Stories European Quality Award
Winners, Gower Publishing, London.
268 BIBLIOGRAFÍA
[146] Zink, K. (1998), Total Quality Management as a Holistic Management
Concept. The European Model for Business Excellence, Springer, Ham-
burg.
BIBLIOGRAFÍA 269