MÓDULO ACADÉMICO
CONTROL ESTADÍSTICO DE PROCESOS
PhD. MANUEL CAMPUZANO HERNÁNDEZ
EN COLABORACIÓN:
JHON LUIS CHOLES DÍAZ
ELIAS DAVID CHOLES MENDOZA
DANIELA CRISTINA FERIA ROJAS
MATEO EDUARDO ORDÓÑEZ GUERRA
MARÍA DE LOS ÁNGELES SARRIA TABARES
UNIVERSIDAD DEL MAGDALENA
FACULTAD DE INGENIERÍA
INGENIERÍA INDUSTRIAL
SANTA MARTA DTCH
2019 - II
TABLA DE CONTENIDO
CAPÍTULO 1 ............................................................................................................................................... 4
INTRODUCCIÓN A LA CALIDAD......................................................................................................................... 4
1.1 HISTORIA ..................................................................................................................................... 5
1.2 DEFINICIÓN................................................................................................................................... 8
1.3 TEORÍAS Y/O FILOSOFÍAS ACERCA DE LA CALIDAD .................................................................................... 9
1.4 ESTÁNDARES DE CALIDAD Y CERTIFICACIÓN .......................................................................................... 12
1.5 COSTOS ASOCIADOS A LA CALIDAD..................................................................................................... 12
1.6 CLASIFICACIÓN DE LOS COSTOS DE LA CALIDAD ..................................................................................... 13
CAPITULO 2 ............................................................................................................................................ 14
HERRAMIENTAS Y CONCEPTOS ESTADÍSTICOS PARA EL ANÁLISIS DE CALIDAD.............................................................. 14
2.1 DEFINICIONES BÁSICAS .................................................................................................................. 15
2.2 TEORIA DE LA PROBABILIDAD............................................................................................................ 17
2.3 VARIABLES ALEATORIAS.................................................................................................................. 19
2.4 DISTRIBUCIONES DE PROBABILIDAD ................................................................................................... 20
2.5 CADENAS DE MARKOV .................................................................................................................... 26
2.6 PRUEBA DE BONDAD DE AJUSTE JI-CUADRADA ...................................................................................... 29
2.7 HERRAMIENTAS ESTADÍSTICAS BÁSICAS PARA EL CONTROL DE CALIDAD ........................................................ 33
CAPÍTULO 3 ............................................................................................................................................ 43
ANÁLISISDECAPACIDADDEPROCESOS................................................................................................................ 43
3.1 CAUSAS COMUNES Y ESPECIALES DE VARIACION.................................................................................... 45
3.2 TIPOS DE PROCESOS...................................................................................................................... 46
3.3 INDICES DE CAPACIDAD .............................................................................................................. 47
3.4 Ejercicios propuestos ........................................................................................................ 68
CAPÍTULO 4 ............................................................................................................................................ 75
CARTAS DE CONTROL................................................................................................................................. 75
4.1 GENERALIDADES........................................................................................................................... 76
4.2 ESTRUCTURA DE UNA CARTA DE CONTROL. ........................................................................................... 76
4.3 OBJETIVOS DE LAS CARTAS DE CONTROL............................................................................................. 77
4.4 VENTAJAS DE UTILIZAR CARTAS DE CONTROL ........................................................................................ 77
4.5 ANÁLISIS DE PATRONES DE COMPORTAMIENTO EN LAS CARTAS DE CONTROL................................................... 77
4.6 CARTAS DE CONTROL Y PRUEBA DE HIPÓTESIS....................................................................................... 80
4.7 CARTAS DE CONTROL PARA VARIABLES................................................................................................ 82
EJERCICIOS PROPUESTOS:........................................................................................................................................................................................92
4.8 CARTAS DE CONTROL POR ATRIBUTOS............................................................................................. 94
4.8.1 CARTA DE CONTROL P:............................................................................................................ 95
4.8.2 CARTA DE CONTROL NP:........................................................................................................ 109
4.8.3 CARTA DE CONTROL C:.......................................................................................................... 114
4.8.4 CARTA DE CONTROL U:.......................................................................................................... 117
CAPÍTULO 5............................................................................................................................................ 125
MUESTREOPARAACEPTACIÓN ........................................................................................................................ 125
5.1 ASPECTOS IMPORTANTES .............................................................................................................. 126
5.2 ENFOQUES PARA LA DICTAMINACIÓN DE LOTES..................................................................................... 126
5.3 VENTAJAS Y DESVENTAJAS DEL MUESTREO..................................................................................... 127
5.4 TIPOS DE PLANES DE MUESTREO DE ACEPTACIÓN.................................................................................. 127
5.5 PLANES CON UNA SOLA MUESTRA POR ATRIBUTOS ................................................................................ 130
5.6 DISEÑO DE PLANES DE MUESTREO................................................................................................ 136
5.7 MUESTREO DOBLE MULTIPLE Y SECUENCIAL......................................................................................... 136
5.8 PLAN DE MUESTREO MULTIPLE .................................................................................................... 140
5.9 PLAN DE MUESTREO SCUENCIAL .................................................................................................. 140
5.10 MILITARY ESTÁNDAR 105E (ANSI/ASQCZ1.4; ISO 2859) ....................................................................... 140
5.11 MUESTREO CONTINUO .................................................................................................................. 145
5.12 NIVEL DE CALIDAD INDIFERENTE................................................................................................... 146
EJERCICIOS PROPUESTOS ..................................................................................................................... 147
TABLA DE ILUSTRACIONES
Tabla 1. Factores para construir cartas de control papa variables (Constantes) ...................................................... 148
Tabla 2. Tabla de Distribución Normal ......................................................................................................... 148
Tabla 3. Tabla de Distribución Binomial........................................................................................................ 148
Tabla 4. Tabla de Distribución Poisson.......................................................................................................... 148
Tabla 5. Letras de código para el tamaño de la muestra (MIL STD 105E)................................................................. 148
Tabla 6. Tabla Maestra para la inspección Normal, Muestreo único (MIL STD 105, Tabla II-A)........................................ 148
Tabla 7. Tabla Maestra para la inspección Rigurosa, Muestreo único (MIL STD 105, Tabla II-B)...................................... 148
Tabla 8. Tabla Maestra para la inspección Reducida, Muestreo único (MIL STD 105, Tabla II-C)..................................... 148
Tabla 9.Valores de i para planes CSP-1 ......................................................................................................... 148
CAPÍTULO 1
INTRODUCCIÓN A LA CALIDAD
El control estadístico de procesos, es necesario para lograr el correcto funcionamiento de diferentes procesos,
asegurando la calidad en este, abarcando desde los límites de control, de especificación (siendo estos de suma
importancia, ya que son los requerimientos principales del producto) hasta los monitoreos necesarios para garantizar
dichos funcionamientos.
Dicho lo anterior, es necesario comenzar por aquellos conceptos básicos, que van a ser el cimiento de toda la temática
que se trabajará en este módulo.
4
1. GENERALIDADES SOBRE LA CALIDAD.
1.1 HISTORIA
La preocupación por la calidad de los productos se origina ya en la producción artesanal de la Edad Media.
Entonces, el cliente realizaba un encargo directamente al artesano. Le facilitaba una completa información sobre sus
necesidades y expectativas, ya que la comunicación era directa.
Por su parte el artesano realizaba, de manera informal, un cierto control de calidad, mediante la inspección final del
producto terminado. La calidad del producto era elevada, pero a cambio de un coste también alto debido al método de
producción empleado. Las técnicas de producción han ido evolucionando. Con ellas, los métodos para hacer que los
productos sean competitivos en los mercados.
Los hitos más relevantes en la historia de la calidad fueron:
• La Normalización de Piezas:
Se trata de diseñar un producto estándar, al que se acoplan piezas también estandarizadas. De este modo, una
pieza puede aplicarse en cualquier unidad de producto, ya que todas ellas tienen las mismas características y
magnitudes. La normalización de piezas tiene un inconveniente. Si las piezas no se ajustan a sus especificaciones, el
operario ha de realizar las transformaciones manuales oportunas para realizar el ajuste. O bien desecharlas. Whitney
ideó una máquina para facilitar la comparación de las piezas con un modelo, aunque obvió el problema de la variabilidad
de los procesos.
• La Producción en Cadena:
En los inicios del siglo XX, la cadena de producción supuso una auténtica revolución en la historia de la calidad.
Por ejemplo, en la fabricación del chasis del «Modelo T», de Henry Ford, se pasó de necesitar 728 minutos, a
completarlo en sólo 931. Esto redujo los costes de producción y, consecuentemente, los precios: el Modelo T pasó de
950 dólares, en 1908, a venderse en 290, en 1927. Sin embargo, con la introducción de la producción en cadena surge
el primer problema de calidad. Imaginemos que, durante el ensamblaje de los componentes en un dispositivo, éstos
poseen tolerancias en sus características físicas, de manera que no pueden ser ensamblados correctamente.
Ahora no es posible realizar al instante las correcciones manuales necesarias para instalar las piezas, ya que esto
supondría detener el funcionamiento de la cadena. En consecuencia, los elementos defectuosos deberán rechazarse
para, posteriormente, ser reprocesados o, sencillamente, desechados como chatarra. En cualquiera de los dos casos,
los costes provocados son muy elevados.
• Primera Definición de Calidad: Conformidad con las Especificaciones
A más alta conformidad (calidad), corresponderá un número menor de desechos y reprocesos, con lo que el coste del
proceso productivo (y del producto) se reducirá.
Esto puede significar un mayor margen comercial o un menor precio de venta, con el consiguiente aumento de la
competitividad en el mercado.
1 Quinn, R. E: Maestría en la gestión de organizaciones. Madrid: Díaz de Santos, 2005.
5
Se dan entonces los primeros procedimientos de inspección de calidad. La función de calidad, bajo esta óptica
clásica, se limita a la realización de una serie de observaciones. Estas tienen como objetivo la verificación de la
concordancia de los diferentes dispositivos y componentes a su especificación, previamente establecida. Los
resultados de las observaciones permiten separar el producto aceptable del no aceptable mediante la inspección final
del producto ya terminado.
• Departamentos de Inspección:
En Estados Unidos, el liderazgo de Frederick Taylor y su Dirección Científica2 supuso la separación entre la
planificación del trabajo y su ejecución: la planificación era realizada por distintos especialistas mientras que
los capataces y operarios ejecutaban la planificación hecha por aquellos. Desde el punto de vista del control de
calidad, el taylorismo también segregó la producción de la inspección. Se crearon entonces departamentos de
inspección, llamados de “Control de Calidad”, con la finalidad de separar los productos buenos de los defectuosos de
forma que éstos no llegaran al cliente.
Si bien el aumento de la productividad fue evidente, se fomentó la idea de que la calidad era materia de los
departamentos especializados en la inspección de la calidad. El concepto subyacente de gestión de la calidad era que
cada departamento funcional entregaba su producto al siguiente y, finalmente, el departamento de calidad separaba
la producción correcta de la incorrecta.
• El Control Estadístico del Proceso.
En el desarrollo de los métodos de control de calidad se produjo un salto cualitativo con los estudios de Walter A.
Shewhart. Entonces trabajaba en los Laboratorios Bell Telephone donde, a partir de la década de 1920, inició el
perfeccionamiento del control de la calidad, introduciendo el muestreo estadístico de los procesos. Este enfoque
representa un profundo avance en la historia de la calidad.
Definió el control de calidad en términos de variación provocada por causas asignables y causas
aleatorias3 Introdujo los gráficos de control de proceso como una herramienta para distinguir entre los dos tipos de
variaciones.
El control de calidad se desplaza entonces desde la mera inspección final del producto, al control estadístico del
proceso. El fin es determinar cuándo un proceso está sometido a variaciones en su comportamiento, tales que su
resultado derivará en producto defectuoso; es decir, fuera de los límites de las especificaciones establecidas en el
diseño.
Shewhart hizo hincapié en que los procesos de producción deben ser controlados estadísticamente, de forma que
sólo existan variaciones de causas ocasionales, o aleatorias, para así mantenerlos bajo control. Sus trabajos fueron
expuestos Economic Control of Quality of Manufactured Products4. Es este un texto clave en la historia de la
calidad.
2 Taylor, F. W: The Principles of Scientific Management. Nueva York y Londres: Harper & Brothers Publishers. 1911.
3 Las causas aleatorias de variación son causas desconocidas y con poca significación, debidas al azar y presentes en todo
proceso. Las causas asignables (específicas o imputables) no deben estar presentes en el proceso. Provocan variaciones
significativas. Las causas aleatorias son de difícil identificación y eliminación. Las causas específicas, o asignables, sí pueden
ser descubiertas y eliminadas, para alcanzar el objetivo de estabilizar el proceso.
4 Shewarth, W. A: Economic Control of Quality of Manufactured Product. New York: D. Van Nostrand Company, 1931. ISBN: 0-
87389-076-0.
6
El control estadístico del proceso supuso un avance significativo. Denominado en su momento “moderno control de
calidad”. Posibilita mantener bajo control los procesos, reduciendo el porcentaje de productos que no se ajustan a
las especificaciones en las distintas fases de un proceso.
• Aseguramiento de la Calidad.
Sobre la base de los procedimientos de control de calidad, la compañía Bell Telephone creó el primer departamento
de aseguramiento de la calidad. El aseguramiento de la calidad se define como el conjunto de acciones planificadas
y sistemáticas tendentes a proporcionar confianza de que un producto satisfará los requisitos de calidad. Estos
primeros pasos en el aseguramiento de la calidad fueron los precursores de los sistemas de aseguramiento y
certificación actuales, como las Normas ISO.
• La Calidad en Japón: Juran y Deming.
En la historia de la calidad, Japón tiene un lugar especialmente relevante. Durante la II Guerra Mundial, la industria de
Estados Unidos llevó a cabo la producción de gran cantidad de material militar. Muchos de esos productos empleaban
una tecnología nueva y sofisticada, por lo que era necesario asegurar su calidad. Los métodos estadísticos de control
de calidad fueron entonces intensamente desarrollados. Ello significó un fuerte impulso al moderno control de calidad.
En Japón, antes de la II Guerra Mundial, la aplicación del control de calidad era escasa. Japón elaboraba productos de
baja calidad que eran vendidos a bajo precio. Tras el conflicto bélico, la ocupación militar por parte de Estados Unidos
supuso el estímulo del moderno control de calidad. Se atendió al principio al sector de las telecomunicaciones. Estos
servicios debían funcionar correctamente por razones logísticas. Posteriormente se extendió a otro tipo de
industrias.
• Gestión de la Calidad Total.
Esta perspectiva pone el énfasis en la participación total; en la cooperación de todos los departamentos y empleados.
El control de calidad no ha de limitarse a la inspección y a los departamentos de producción. Ha de extenderse a todas
las actividades de la organización. Desde el diseño de productos, hasta su fabricación. A la garantía posventa, los
subcontratistas y resto de actividades auxiliares o de soporte, como la contabilidad o la administración del personal.
Un planteamiento en el que se reconoce lo que más tarde se denominará Gestión de la Calidad Total. El avance en
calidad de los productos japoneses fue indiscutible. En la década de 1970 su penetración en los mercados occidentales
fue más que significativa. Este éxito de los productos japoneses no se debía únicamente al desarrollo de la garantía
de calidad, que implica la confianza del cliente en que el producto funcionará a lo largo del tiempo de forma correcta;
sino a un factor que no había sido considerado hasta entonces: la satisfacción del cliente.
No basta con que el producto no tenga fallos o defectos, es preciso que tenga además calidad de diseño, de forma que
funcione tal y como el cliente espera, es decir, tener características de calidad reales desde el punto de vista del
cliente. Esta situación estimuló que el enfoque de la calidad no se centrara únicamente en la reducción de fallos y
errores en los productos, sino que se extendiera a la comprensión de las necesidades de los clientes, desarrollando
relaciones a largo plazo con ellos, entrenando al personal, diseñando productos y servicios basados en las opiniones
de los clientes, comprendiendo que la calidad de la gestión es tan importante como la gestión de la calidad.
7
• Modelos de Excelencia en la Gestión.
Más recientemente, la noción de calidad ha implicado al concepto de excelencia en la gestión. Esta alinea e integra
actividades y resultados para aportar valor añadido a clientes y grupos de interés. La filosofía de la Excelencia puede
enunciarse como la gestión que procura el éxito a largo plazo de una organización; mediante la satisfacción equilibrada
y continua de las necesidades y expectativas de todos sus grupos de interés.
Esta perspectiva dio lugar al premio Malcolm Baldrige, en Estados Unidos. Ya más recientemente, al Modelo EFQM de
Excelencia y al Modelo Iberoamericano de Excelencia en la Gestión.
1.2 DEFINICIÓN
1.2.1 ¿QUÉ ES LA CALIDAD?
El concepto de calidad puede variar y resultar complicado debió a que ha cambiado al pasar del tiempo, para poder
comprenderlo en profundidad podemos tomar como punto de inicio algunas de las definiciones aportadas por
diferentes autores:
• Ernesto Ché Guevara (1963) definió la calidad como el respeto al pueblo.
• Parasuraman, B. Zeithaml y L. Berry (1985, 1988) entendieron la calidad como aquella discrepancia existente
entre lo esperado y lo percibido.
• Berry (1988) mantuvo la opinión de que la calidad es un tema de servicio, es decir, la calidad debe ser previsión,
no una ocurrencia tardía. Según Berry, debe ser un modo de pensamiento. Este influye en cada paso del desarrollo
de nuevos servicios, nuevas políticas, nuevas tecnologías y nuevas instalaciones.
• Kaoru Ishikawa (1988) supuso que la calidad es el hecho de desarrollar, diseñar, manufacturar y mantener un
producto de calidad. Este producto debe ser el más económico, el más útil y resultar siempre satisfactorio para
el consumidor final.
• E.W. Deming (1988) determinó al concepto calidad como ese grado predecible de uniformidad y fiabilidad a un
bajo coste. Este grado debe ajustarse a las necesidades del mercado. Según Deming la calidad no es otra cosa
más que “una serie de cuestionamiento hacia una mejora continua”.
• Harrington (1990) definió la calidad como el hecho de cumplir o exceder las expectativas del cliente a un precio
que sea capaz de soportar.
• V. Feigenbaum (1991) entendió la calidad como un proceso que debe comenzar con el diseño del producto y
finalizar sólo cuando se encuentre en manos de un consumidor satisfecho.
• Roger. G. Schrolder (1992) fue firme en la opinión de que la calidad es incluir cero defectos, mejora continua y
gran enfoque en el cliente. Cada individuo tiene la facultad de definir la calidad con sus complementos.
• M. Juran (1993) supuso que la calidad es el conjunto de características que satisfacen las necesidades de los
clientes. Además según Juran, la calidad consiste en no tener deficiencias. La calidad es “la adecuación para el
uso satisfaciendo las necesidades del cliente”.
• NC/ ISO 9000 2005. Según la norma, la calidad es entendida como el grado en el que un conjunto de
características inherentes cumple con los requisitos.
8
• Valls (2007) explicó que para alcanzar la calidad deben de cumplirse una serie de requisitos. Estos requisitos
vienen demandados por el cliente. Debe priorizarse la eficacia en la consecución de dicho objetivo, lo más
eficientemente posible y así se alcanzará una gestión efectiva de la organización
En conclusión; calidad significa adecuación para uso. En la adecuación para uso se distinguen dos aspectos
generales: calidad de diseño y calidad de conformidad.
• Calidad de Diseño: Todos los productos o servicios se producen con varios grados o niveles de calidad. Estas
variaciones en los grados o niveles de calidad son internacionales y, por consiguiente, el término técnico
apropiado es calidad de diseño. Este factor engloba todas las funciones y características de un producto.
• Calidad de Conformidad: La calidad de conformidad es la medida en que el producto se ajusta a las
especificaciones requeridas por el diseño. Este elemento está influido por varios factores, incluyendo la elección
de los procesos de manufactura, la capacitación y supervisión de la fuerza de trabajo, el tipo de sistema de
aseguramiento de la calidad que se utiliza, la medida en que se siguen estos procedimientos de aseguramiento
de la calidad, y la motivación de la fuerza de trabajo para alcanzar la calidad.
La ingeniería de calidad maneja una definición moderna de calidad: La calidad es un factor inversamente proporcional
a la variabilidad. Esta definición implica que si la variabilidad de las características importantes de un producto
disminuye, la calidad de un producto aumenta. Es aquí donde entra en juego el control estadístico de la calidad, cuyo
principal objetivo es el análisis y reducción de este factor, haciendo uso de diferentes herramientas de tipo estadístico.
1.2.2. DIMENSIONES DE LA CALIDAD
Existen varias maneras de evaluar la calidad de un producto. Con frecuencia es de suma importancia distinguir estas
diferentes dimensiones de la calidad. Garvin ofrece una excelente discusión en los siguientes ocho componentes:
• Desempeño (¿Servirá el producto para el fin proyectado?)
• Confiabilidad (¿Con qué frecuencia falla el producto?
• Durabilidad (¿Cuánto tiempo dura el producto?)
• Facilidad de servicio (¿Qué tan fácil es reparar el producto?)
• Estética (¿Cómo luce el producto?)
• Características incluidas (¿Qué hace el producto?)
• Calidad percibida (¿Cuál es la reputación de la compañía o de su producto?)
• Conformidad con los estándares ¿(¿El producto se fabrica exactamente como lo proyectó el diseñador?)
1.3 TEORÍAS Y/O FILOSOFÍAS ACERCA DE LA CALIDAD
Muchas personas han contribuido en la metodología estadística del mejoramiento de calidad. Sin embargo, en términos
de la filosofía de la implementación y la administración, surgen tres individuos como líderes: W. E. Deming, J. M. Juran
y A. V. Feigenbaum.
1. W. Edwards Deming
La filosofía del Dr. Deming es un importante marco para implementar el mejoramiento de la calidad y la
productividad. A continuación, se presenta los 14 principios de administración manejados por Deming:
9
1.1 Crear constancia en los propósitos enfocados en el mejoramiento de productos y servicios.
1.2 Adoptar la nueva filosofía de rechazar la mano de obra deficiente, los productos defectuosos o los malos
servicios.
1.3 No confiar en la inspección en masa para controlar la calidad.
1.4 No hacer contratos con proveedores atendiendo únicamente al precio, sino considerando también la
calidad.
1.5 Enfocarse en el mejoramiento continuo.
1.6 Poner en práctica métodos de capacitación modernos e invertir en la capacitación de todos los empleados.
1.7 Poner en práctica métodos de supervisión modernos.
1.8 Sacudirse el miedo.
1.9 Derribar las barreras entre las áreas funcionales del negocio.
1.10 Eliminar objetivos, lemas y metas numéricas para la fuerza de trabajo.
1.11 Eliminar las cuotas y los estándares de trabajo numéricos.
1.12 Eliminar las barreras que desalientan a los empleados a realizar sus trabajos.
1.13 Instituir un programa progresivo de capacitación y educación para todos los empleados.
1.14 Crear una estructura en la alta gerencia que propugne con decisión por los 13 primeros puntos.
2. Dr. Joseph M. Juran
Uno de los padres fundadores del control estadístico de calidad. Fue invitado a dar pláticas a líderes de la industria
japonesa cuando iniciaron su transformación industrial a principios de los años 1950. Es coautor (con Frank M. Gryna)
de Quality Control Handbook, una referencia obligada para los métodos y el mejoramiento de calidad desde su
publicación original en 1957.
La filosofía de Juran se basa en la organización del cambio y en la implementación de mejoras que él llama la
“penetración administrativa”. La secuencia de la penetración es en realidad un proceso estructurado para la solución
de problemas.
3. Dr. Armand Feigenbaum
Fue el primero en introducir el concepto de control de calidad en toda la compañía en su histórico libro Total Quality
Control (la primera edición se publicó en 1951). Este libro ejerció una gran influencia en los inicios de la filosofía de la
administración de calidad en Japón a principios de los años 1950.
El interés del Dr. Feigenbaum se centra más en la estructura organizativa y en el enfoque de los sistemas para mejorar
la calidad que en los métodos estadísticos.
1.3.1 Estándares de calidad y certificación
La Organización Internacional de Normas (ISO, por sus siglas en inglés) ha desarrollado una serie de estándares de
calidad que incluyen la serie ISO 9000, los cuales también son adoptados por el Instituto Amer icano de Estándares
Nacionales y la ASQ. El punto central de estos estándares es el sistema de calidad, incluyendo componentes tales
como:
1. Responsabilidad de la administración de calidad
10
2. Control del diseño.
3. Control de datos y documentos.
4. Administración de compras y contratos.
5. Identificación y rastreabilidad de productos.
6. Inspección y prueba, incluyendo el control del equipo de medición e inspección.
7. Control del proceso.
8. Manejo de la producción disconforme, acciones correctivas y preventivas.
9. Manejo, almacenamiento, empaque y entrega del producto, incluyendo actividades de servicio.
10. Registros de control de calidad.
11. Auditorías internas.
12. Capacitación.
13. Metodología estadística.
1.3.2 Seis Sigma
De manera típica, son grandes las probabilidades de que ocurran fallas o defectos en los productos de alta tecnología
con muchos componentes complejos. Motorola desarrolló el programa seis sigmas a fines de los años 1980 en
respuesta a la demanda de estos productos. Este programa se centra en llevar la variabilidad de las características
de calidad clave a niveles en los que las fallas o los defectos sean en extremo improbables.
Six Sigma se basa en la curva de la distribución normal para conocer el nivel de variación de cualquier actividad,
posterior a esto desarrolla una serie de pasos para el control de calidad y la optimización de procesos industriales.
Estos pasos se conocen como el ciclo DMAMC (Definición, Medición, Análisis, Mejora, Control)
La finalidad del Six Sigma es proporcionar la información adecuada para ayudar a la implementación de la máxima
calidad del producto o servicio en cualquier actividad, así como crear la confianza y comunicación entre todos los
participantes, pues se debe tener en cuenta que la actividad del negocio parte de la información, las ideas y la
experiencia, lo cual ayuda a elevar la calidad y el manejo administrativo.
1.3.3 Justo a tiempo, manufactura, Poka-Yoke, y otras.
Ha habido muchas iniciativas destinadas a mejorar el sistema de producción. Entre ellas se encuentra el enfoque justo
a tiempo, es una filosofía que tiene como su objetivo la eliminación de pérdidas. Las pérdidas pueden ser partes
rechazadas, niveles excesivos de inventario, colas interpretativas, manejo excesivo de materiales, tiempos de
preparación y cambio muy prolongados, y otras. JIT enaltece la necesidad de hacer calzar la cuota de producción con
la demanda actual, y elimina las actividades que no aumentan el valor.
La filosofía de eliminación de pérdidas ha probado ser de ayuda en todos los tipos de ambientes de manufactura (y de
servicio), con la salvedad de que algunos tipos de manufactura ofrecen mayores oportunidades que otros. La siguiente
tabla lista las mejoras estimadas para distintos tipos de manufactura:
1.3.4 Gestión De Calidad Total (TQM)
El objetivo perseguido por la Gestión de Calidad Total es lograr un proceso de mejora continua de la calidad por un
mejor conocimiento y control de todo el sistema (diseño del producto o servicio, proveedores, materiales, distribución,
11
información, etc.) de forma que el producto recibido por los consumidores esté constantemente en correctas
condiciones para su uso (cero defectos en calidad), además de mejorar todos los procesos internos de forma tal que
se produzcan bienes sin defectos a la primera, implicando la eliminación de desperdicios para reducir los costos,
mejorar todos los procesos y procedimientos internos, la atención a clientes y proveedores, los tiempos de entrega
y los servicios post-venta.
La Gestión de Calidad involucra todos los sectores, es tan importante producir el artículo que los consumidores
desean, y producirlos sin fallas y al menor coste, como entregarlos en tiempo y forma, atender correctamente a los
clientes, facturar sin errores, y no producir contaminación. Así como es importante la calidad de los insumos y para
ello se persigue reducir el número de proveedores (llegar a uno por línea de insumos) para efectos de asegurar la
calidad (evitando los costos de verificación de cantidad y calidad), la entrega justo a tiempo y la cantidad solicitada;
así también es importante la calidad de la mano de obra (una mano de obra sin suficientes conocimientos o no apta
para la tarea implicará costos por falta de productividad, alta rotación, y costos de capacitación). Esta calidad de la
mano de obra al igual que la calidad de los insumos o materiales incide tanto en la calidad de los productos, como en
los costos y niveles de productividad.
1.4 ESTÁNDARES DE CALIDAD Y CERTIFICACIÓN
La conceptualización está dada a partir de la Norma ISO 9000
• Gestión de la calidad: Actividades coordinadas para dirigir y controlar una organización en lo relativo a la
calidad.
• Mejoramiento de la calidad: Reducción de la variabilidad en procesos y productos.
• Administración de la calidad: Según Juran, es el proceso de identificar y administrar las actividades necesarias
para lograr los objetivos de calidad de una organización.
• Aseguramiento de la calidad: Parte de la gestión de calidad orientada a proporcionar confianza en que se
cumplirán los requisitos de la calidad.
• Planificación de la calidad: Parte de la gestión de la calidad enfocada al establecimiento de los objetivos y
a la especificación de los procesos operativos necesarios y de los recursos relacionados para cumplir los
objetivos de la calidad.
• Control de la calidad: Es el sistema por medio del cual se establece que un producto reúne o no las condiciones
necesarias para su aceptación por el cliente
1.5 COSTOS ASOCIADOS A LA CALIDAD
Los costos de la calidad, son aquellos costos asociados con la producción, identificación y reparación de productos o
servicios que no cumplen con las expectativas impuestas por la organización que los produce. Durante muchos años,
los costos de calidad fueron ignorados. Sin embargo, desde la década de 1950, numerosas empresas comenzaron a
evaluarlos formalmente, por diversas razones:
• La conveniencia de comunicar mejor la importancia de la calidad a una audiencia entrenada en el uso de variables
financieras.
12
• La mejor comprensión de las categorías de costos de la calidad y de los diversos costos asociados con el ciclo
de vida del producto, incluyendo los costos de la mano de obra y el mantenimiento necesarios para el
aseguramiento de la calidad de los productos y servicios.
• La mayor complejidad de los productos y procesos manufactureros, asociada con nuevas tecnologías
que llevaron a un incremento en los costos de calidad.
En el último medio siglo, los costos de la calidad se han transformado en un método de control financiero que, en
manos de los gerentes, permite identificar oportunidades para reducir los costos de la firma y fortalecer sus procesos
de mejora continua y actualización de procesos.
1.6 CLASIFICACIÓN DE LOS COSTOS DE LA CALIDAD
Los costos de conformidad son aquéllos en los que se incurre para asegurar que los bienes y servicios provistos
responden a las especificaciones; incluyen los costos de las etapas de diseño y fabricación destinado a prevenir la
falta de adecuación a los estándares, y se clasifican en costos de prevención y de evaluación.
Los costos de no conformidad se presentan asociados a fallas, es decir, están vinculados con productos o servicios
que no responden a las especificaciones. Se clasifican en costos de falla interna y costos de falla externa.
13
CAPITULO 2
HERRAMIENTAS Y CONCEPTOS ESTADÍSTICOS
PARA EL ANÁLISIS DE CALIDAD
En este capítulo se encuentra todo lo relacionado con las herramientas estadísticas que ayudarán al mejoramiento
de la calidad. De igual forma se presentan algunos conceptos de temas fundamentales pertenecientes a la estadística
los cuales serán de gran utilidad al momento de aplicar dichas herramientas.
14
Términos estadísticos para recordar
Es importante recordar que la Estadística es la ciencia encargada de la recolección, organización e interpretación de
datos, para obtener conclusiones de una población.
Según se haga el estudio sobre todos los elementos de la población o sobre un grupo de ella, se diferencian dos tipos
de Estadística:
- Estadística Descriptiva: Realiza el estudio sobre la población completa, observando una característica de la
misma y calculando unos parámetros que den información global de toda la población.
- Estadística Inferencial: Realiza el estudio descriptivo sobre un subconjunto de la población llamado muestra
y, posteriormente, extiende los resultados obtenidos a toda la población.
2. TÉCNICAS ESTADÍSTICAS ÚTILES PARA EL MEJORAMIENTO DE LA CALIDAD.
2.1 DEFINICIONES BÁSICAS
• POBLACIÓN: Es el conjunto de todos los elementos, individuos o entes sujetos a estudio y de los cuales se quiere
obtener un resultado.
• MUESTRA: Subconjunto de la población.
• VARIABLE: Característica o propiedad de los elementos o individuos de la población a estudiar.
• Existen dos categorías o tipo de variables:
- Variables cualitativas: se refieren a atributos o cualidades que no pueden ser medidas con números.
- Variables cuantitativas: se refieren a aquellas características que pueden ser expresadas numéricamente.
Esta a su vez se subdivide en:
- Variables discretas: son aquella que entre dos valores próximos puede tomar a lo sumo un número finito
de valores, es decir, características que únicamente tomarán valores enteros.
- Variables continuas: son aquellas que pueden tomar infinitos valores dentro de un intervalo.
• EXPERIMENTO ALEATORIO: Es aquel experimento que puede producir resultados diferentes, aun cuando se
repita siempre de la misma manera.
• ESPACIO MUESTRAL: Es el conjunto de todos los resultados posibles de un experimento aleatorio. Se denota
por S. Por ejemplo, se considera el experimento de lanzar un dado, si el interés se centra en el número que
muestra la cara superior, el espacio muestral sería:
= {1,2,3,4,5,6}
• EVENTO: Es un subconjunto del espacio muestral de un experimento aleatorio. Para cualquier experimento
dado, se puede estar interesado en la ocurrencia de ciertos eventos, por ejemplo, se puede estar interesado
en el evento A en que el resultado cuando se lanza un dado sea divisible entre 3; este ocurrirá si el resultado
es un elemento del subconjunto:
= {3,6}
Con frecuencia es necesario describir nuevos eventos a partir de combinaciones de eventos existentes:
15
- Unión de dos eventos: Es el evento que consta de todos los resultados que están contenidos en cualquiera
de los dos eventos. La unión se denota por: 1 ∪ 2
- Intersección de dos eventos: Es el evento que consta de todos los resultados que están contenidos en los
dos eventos. La intersección se denota por: 1 ∩ 2
- Complemento de un evento: Es el conjunto de resultados en el espacio muestral que no están en el evento.
El complemento se denota por: ′
- Eventos mutuamente excluyentes: Se dice que dos eventos son mutuamente excluyentes, si estos no
presentan elementos en común; dos eventos denotados como 1 y 2 tales que 1 ∩ 2 = ∅ son
mutuamente excluyentes.
• MEDIDAS DE TENDENCIA CENTRAL
Son indicadores estadísticos que muestran hacia qué valor (o valores) se agrupan los datos.
Existen varios procedimientos para expresar matemáticamente las medidas de tendencia central, de los cuales, los
más conocidos son: la media aritmética, la mediana y la moda.
• LA MEDIA ARITMÉTICA
Equivale al cálculo del promedio simple de un conjunto de datos. Para diferenciar datos muéstrales de datos
poblacionales, la media aritmética se representa con un símbolo para cada uno de ellos: si trabajamos con la población,
este indicador será ; en el caso de que estemos trabajando con una muestra, el símbolo será ̅ .
• LA MEDIANA
Valor que divide una serie de datos en dos partes iguales. La cantidad de datos que queda por debajo y por arriba de
la mediana son iguales.
La definición de geométrica se refiere al punto que divide en dos partes a un segmento. Por ejemplo, la mediana del
segmento es el punto C.
Existen entonces dos segmentos iguales:
̅̅ ̅ ̅ = ̅̅ ̅ ̅
Formula:
= −1 − −1
2
Donde:
=Es la semisuma de las frecuencias absolutas
2
16
−1 =Es el limite inferior de la clase donde se encuentra
2
−1 =Es la frecuencia acumulada anterior a la clase mediana.
= Es la amplitud de la clase.
• LA MODA
Indica el valor que más se repite, o la clase que posee mayor frecuencia. En el caso de que dos valores presenten la
misma frecuencia, decimos que existe un conjunto de datos bimodal. Fórmula para determinar la moda para tablas de
frecuencia.
= −1 + ∗ ( − − −1 − +1)
−1) + (
Donde −1equivale al limite superior del intervalo anterior donde se encuentra la Moda
• MEDIDAS DE DISPERSIÓN
Las medidas de dispersión permiten reconocer que tanto se dispersan los datos alrededor de un punto central; es
decir, nos indican cuanto se dispersan o separan las observaciones alrededor de su valor central. Las medidas de
dispersión más importantes y las más utilizadas son la Varianza y la Desviación estándar.
Desviación Estándar:
= √∑ ( − ̅)2
− 1
Poblacional
Es la desviación estándar de la variable de interés tomada del total de la población de tamaño N.
Muestral
Es la medida de variabilidad de un conjunto de n datos que se obtiene al promediar las desviaciones
individuales de cada dato.
Varianza ( ): Es el cuadrado de la desviación estándar.
2.2 TEORIA DE LA PROBABILIDAD
• Leyes de probabilidad
Definición de términos utilizados:
( ) → ; ( ) →
( + ) → Probabilidad de que ocurra por lo menos uno de los eventos o, lo que es lo mismo, de que ocurra A o
B, o ambos simultáneamente
17
• Eventos mutuamente excluyentes: A y B son eventos mutuamente excluyentes cuando no pueden ocurrir
simultáneamente, o sea que no existen puntos muestrales que pertenezcan simultáneamente a ambos.
• Eventos Independientes: A y B son dos eventos independientes cuando la ocurrencia o no ocurrencia de
uno de ellos no afecta la probabilidad de ocurrencia o no ocurrencia del otro.
En estos casos,
( / ) = ( ) ó ( / ) = ( )
• Teorema de la Adición:
Si aplicamos la definición básica de probabilidad para el caso de experimentos equiprobables, tenemos que:
# ( + )
( + ) = #
( + ) = ( ) + ( ) − ( )
( + ) = ( ) + ( ) − ( )
( + ) = ( ) + ( ) − ( )
En el caso de eventos mutuamente excluyentes,
( ) = 0 ( )
Y se tiene que:
( + ) = ( ) + ( )
• Teorema de la multiplicación:
( ) = ( ) ( / )
Se puede explicar esta relación aplicando la definición de probabilidad al evento A/B así:
( / ) ( )
( / ) = ( ) = ( )
El número de puntos en ( / ) corresponde a aquellos que están simultáneamente en B y en A, o sea: ( ),
porque el evento expresa que A ya ocurrió.
18
El número total de puntos muestrales, que se utiliza como denominador en la anterior expresión, es el número de
puntos que corresponden al evento A, ( ) , el cual se constituye como nuevo universo o espacio muestral por la
condicionalidad expresada de que A ya ocurrió.
Ahora,
( ) ( )/ ( )
( ) = ( )/ = ( ) = ( / )
Y se obtiene que: ( ) = ( ) ( / )
Si se intercambia el orden de los eventos, se llega también a esta otra expresión del teorema de multiplicación:
( ) = ( ) ( / )
Si A y B son eventos independientes, entonces:
( ) = ( ) ( )
• Formula de Bayer:
Esta fórmula nos permite hallar probabilidades de causa de un resultado experimental que ya se ha observado.
Si se supone que un evento A puede ocurrir como consecuencia de k causas diferentes: H1, H2,…,Hi, …,Hk, mutuamente
excluyentes.
Se desea hallar una expresión para la probabilidad de que la causa Hi, haya originado el evento A, al cual ya se ha
observado al realizar el evento:
( / ) = ( ) = ( ) ( / ) ( )
( ) ( 1 ) + ( 2 ) + ⋯ +
El numerador de expresión anterior se obtiene mediante la aplicación del teorema de multiplicación.
El denominador es una aplicación del teorema de adición, ya que el evento A puede ocurrir juntamente con H1, o con
H2, o con Hk.
Por lo tanto, la fórmula de Bayes de expresa así:
( / ) = ( ) ( / )
∑ =1 ( )
2.3 VARIABLES ALEATORIAS
Una variable aleatoria es una función que asigna un número real a cada resultado en el espacio muestral de un
experimento aleatorio.
Se dice que X es aleatoria porque involucra la probabilidad de los resultados del espacio muestral, y X es una función
definida sobre el espacio muestral, de manera que transforme todos los posibles resultados del espacio muestral en
cantidades numéricas.
19
Variable Aleatoria Discreta: Aquella tal que la cantidad de valores posibles que puede tomar es finita, o infinita pero
numerable.
Variable Aleatoria Continua: Aquella tal que la cantidad de valores posibles es infinita y no numerable.
2.4 DISTRIBUCIONES DE PROBABILIDAD
La distribución de probabilidad o distribución de una variable aleatoria X es una descripción del conjunto de valores
posibles de X (rango de X), junto con la probabilidad asociada a cada uno de estos valores. Hay dos tipos de
distribuciones de probabilidad:
1. Distribuciones Discretas: Se utilizan cuando el parámetro que se está midiendo sólo puede asumir ciertos
valores dentro de un intervalo.
2. Distribuciones Continuas: Se utilizan cuando la variable que se está midiendo se expresa en escala continua
(variable aleatoria continua).
2.4.1 DISTRIBUCIONES DISCRETAS
Varias distribuciones de probabilidad discretas se presentan con frecuencia en el control estadístico de calidad, entre
estas tenemos:
2.4.1.1 Distribución Uniforme
Es la más simple de todas las distribuciones de probabilidad discreta pues la variable aleatoria discreta X puede tomar
una cantidad finita de n valores X1, X2, X3,…, Xn, cada uno de estos con una probabilidad idéntica 1/n, es decir, con
probabilidad uniforme.
La distribución de probabilidad o función de masa de esta variable aleatoria es:
= , , … ,
( ) = ( = ) =
Su media y varianza son:
= ( ) = ∑ =1 2 = ( ) = ∑ =1( − )2
Ejemplo: Cuando se lanza un dado de seis caras, la función de masa de la variable aleatoria es:
( = ) = 1 ; = 1,2,3,4,5,6
6
La media y varianza son:
1+2+3+4+5+6
= ( ) = 6 = 3.5
2 = (1 − 3.5)2 + (2 − 3.5)2 + (3 − 3.5)2 + (4 − 3.5)2 + (5 − 3.5)2 + (6 − 3.5)2
6
2 = 2.91
20
2.4.2.1 Distribución Binomial
Un experimento aleatorio que consta de n ensayos repetidos, tales que:
1. Los ensayos son independientes, es decir el resultado de cada ensayo no depende del resultado de ensayos
anteriores.
2. Cada ensayo produce únicamente dos resultados posibles, etiquetados como “éxito” y “fracaso”.
3. La probabilidad de un “éxito” en cada ensayo, denotada como p, permanece constante.
Se llama experimento Binomial.
La variable aleatoria X que es igual al número de ensayos n que producen un éxito tiene una distribución binomial con
parámetros p y n = 1, 2,…
La función de masa de probabilidad de X es:
( ) = ( ) (1 − ) − , = 0,1, … … ,
Su media y varianza son:
= ( ) = 2 = ( ) = (1 – )
Donde:
p = Probabilidad de éxito.
(1-p)= Probabilidad de fracaso
x = Número de éxitos deseados
n = Número de ensayos efectuados
Para indicar que una variable X es una binomial de parámetros n y p, se escribirá X∼ B(n, p).
Ejemplo:
Se tiene una línea de producción de cilindros para gas natural vehicular. Se sabe que la probabilidad de que un cilindro
sea defectuoso es de 0,02. Adicionalmente para el jefe de producción es conocido que el primer cilindro que se fabrica
al día es defectuoso debido a la calibración de la maquinaria. Encuentre la probabilidad de obtener más de dos cilindros
defectuosos en los primeros dos cilindros que se fabrican en un día.
= ú
= 10 – 1 = 9
% = 0,02
( ) = ( > ) = ∑ ( ) (1 − ) −
=0
21
2
( ) = 1 − ( ≤ 2) = 1 − ∑ ( 9 ) 0.02 (1 − 0.02)9−
=0
1 − ( ≤ 2) = 1 − [ ( = 0) + ( = 1) + ( = 2)]
( = 0) = (90) 0.020(1 − 0.02)9−0 = 0,8337
( = 1) = (91) 0.021(1 − 0.02)9−1 = 0,1531
( = 2) = (92) 0.022(1 − 0.02)9−2 = 0,0125
− ( ≤ ) = − [ , + , + , ] = − , = ,
2.4.1.3 Distribución Geométrica
Si en una serie de ensayos de Bernoulli independientes, con probabilidad constante de éxito p, sea la variable aleatoria
X el número de ensayos hasta la obtención del primer éxito. Entonces X tiene una distribución geométrica con
parámetro p.
( ) = (1 − ) −1 , = 1,2, … ..
Si X es una variable aleatoria geométrica con parámetros p, entonces la media y la varianza de X son:
1 2 = ( ) = 1 −
= ( ) = 2
2.4.1.4 Distribución Hipergeométrica
Se emplea para calcular la probabilidad de obtener determinado número de éxitos en un espacio muestral de n
ensayos; pero que, a diferencia de la distribución binomial, aquí los ensayos no son independientes, dados que las
muestras se extraen sin reemplazo en una población finita; por esto es por lo que el resultado de una observación es
afectado por el resultado de observaciones anteriores.
Un conjunto de N objetos contiene:
- K objetos clasificados como éxitos
- N-K objetos clasificados como fracasos
Se selecciona una muestra con tamaño de n objetos, al azar (sin reemplazo) de entre los N objetos, donde ≤
y ≤
Sea que la variable aleatoria X denote el número de éxitos en la muestra. Entonces X tiene una distribución
hipergeométrica, con:
( ) = ( ) ( − ) , = 0,1,2 … … . í ( , )
−
( )
22
Si X es una variable aleatoria hipergeométrica con parámetros N, K y n, entonces la media y la varianza de X son:
= ( ) = 2 = ( ) = (1 − ) ( − 1 )
−
Ejemplo:
Un lote contiene 100 piezas de un proveedor de tubería local y 200 unidades de un proveedor de tuberías del estado
vecino. Si se seleccionan cuatro piezas al azar y sin reemplazo ¿Cuál es la probabilidad de que todas sean del
proveedor local?
Sea X igual al número al número de piezas de la muestra del proveedor local. Entonces, X tiene una distribución
hipergeométrica y la probabilidad pedida es P(X=4). Por consiguiente:
( = 4) = (1400) (2000) = 0.0119
(3400)
¿Cuál es la probabilidad de que dos o más piezas de la muestra sean del proveedor local?
( ≥ 4) = (1020) (2200) + (1030) (2100) + (1400) (2000) = 0.408
(3040) (3040) (3040)
¿Cuál es la probabilidad de que al menos una pieza de la muestra sea del proveedor local?
( ≥ 1) = 1 − ( = 0) = 1 − (1000) (2040) = 0.196
(3400)
Ejercicios propuestos.
1. En la producción de varillas de acero el 90% de las varillas son consideradas de buena calidad, Si se toma
una muestra de 4 varillas al azar. ¿Cuál es la probabilidad de que 2 varillas sean de buena calidad? ¿Cuál es
la probabilidad de como máximo sean 3?
2. Una empresa contiene dos estaciones, de la estación A, pasan productos a la estación B. La estación A para
evitar tener problemas con la estación B, mezcla 2 productos defectuosos con 10 productos buenos, son
iguales a simple vista. Si la estación B selecciona 3 productos al azar para analizarlos. ¿cuál es la
probabilidad de que la empresa B se dé cuenta de que están combinando productos buenos y malos?
3. Una empresa que fabrica neumáticos tiene problemas con el calor de la planta entre 6 y 7 de la tarde, esto
provoca que 3 de cada 100 neumáticos en ese horario no cumplan la prueba de presencia. ¿Cuál es la
probabilidad de que tomados 30 neumáticos al azar 3 salgan defectuosos?
23
2.4.1.5 Distribución de Poisson
Siempre que la probabilidad que se produzca un suceso determinado sea muy pequeña en cualquier instancia
específica, pero a la vez, el número de instancias posibles sea enormemente grande, la distribución de los sucesos se
realiza mediante la distribución de Poisson.
Dado un intervalo de números reales, suponga que el conteo de ocurrencias es aleatorio en dicho intervalo. Si puede
hacerse la partición del intervalo en subintervalos con una longitud suficientemente pequeña tales que
1. La probabilidad de más de una ocurrencia en un subintervalo es cero.
2. La probabilidad de una ocurrencia en un subintervalo es la misma para todos los subintervalos y
proporcional a la longitud del subintervalo.
3. El conteo de ocurrencias en cada subintervalo es independiente de los demás subintervalos.
Entonces el experimento aleatorio se denomina proceso de Poisson.
Si el número promedio de ocurrencias en el intervalo es > , la variable aleatoria X, que es igual al número de
ocurrencias en el intervalo, tiene una distribución de Poisson con parámetro , y la función de masa de probabilidad
de X es
− = 0,1,2, … …
( ) = ! ,
Si X es una variable aleatoria de Poisson con parámetro entonces la media y la varianza de X son:
= ( ) = 2 = ( ) =
Ejemplo:
La contaminación constituye un problema en la fabricación de discos de almacenamiento óptico. El número de
partículas de contaminación que ocurre en un disco óptico tiene una distribución de Poisson y el número promedio de
partículas por centímetro cuadrado de superficie del disco es 0.1. El área de un disco bajo estudio es 100 2.
Encuentre la probabilidad de que ocurran 12 partículas en el área del disco bajo estudio.
Sea que X denote el número de partículas en el área de un disco bajo estudio. Puesto que el número promedio de
partículas es 0.1 partículas por 2.
Por lo tanto,
( ) = 100 2 ∗ 0.1 / 2 = 10 í
−101012
( = 12) = 12! = 0.095
2.4.2 DISTRIBUCIONES CONTINUAS
2.4.2.1 DISTRIBUCIÓN NORMAL
El modelo de uso más generalizado para la distribución de una variable aleatoria continua es la distribución normal.
Siempre que se hace la repetición de un experimento aleatorio, la variable aleatoria que es igual al resultado promedio
24
(o total) de las repeticiones tiende a tener una distribución normal, cuando el número de repeticiones es grande. Una
distribución Normal también se conoce como distribución de Gauss o Gaussiana.
Una variable aleatoria X con función de densidad de probabilidad
( ) = 1 −( 2− 2 )2 : −∞ < < ∞
√2
Tiene una distribución normal con parámetros , donde−∞ < < ∞ y > 0. Además
( ) = ( ) = 2
Para graficar la función de densidad de probabilidad de una distribución normal, en el eje horizontal se levantan
perpendiculares en dos puntos a y b, el área bajo la curva delimitada por esas líneas indica la probabilidad de que la
variable de interés X, tome un valor cualquiera en ese intervalo. Puesto que la curva alcanza su mayor altura en torno
a la media, mientras que sus "ramas" se extienden asintóticamente hacia los ejes, cuando una variable siga una
distribución normal, será mucho más probable observar un dato cercano al valor medio que uno que se encuentre
muy alejado de éste.
GRÁFICA DE LA DISTRIBUCIÓN DE PROBABILIDAD NORMAL
A una variable aleatoria normal con = 0 y 2 = 1 se le llama variable aleatoria normal estándar. Una variable
aleatoria normal estándar se denota como Z.
La función de distribución acumulada de una variable aleatoria normal estándar se denota como
( ) = ( ≤ )
Existen un sinnúmero de distribuciones de probabilidad normal, cada una de las distribuciones puede tener una media
(μ) o una desviación estándar distinta (σ). Por tanto, el número de distribuciones normales es ilimitado y sería
imposible proporcionar una tabla de probabilidades para cada combinación de μ y σ.
Para resolver este problema todas las distribuciones de probabilidad normales se relacionan algebraicamente a una
distribución normal estándar, haciendo antes una transformación simple.
Primero, convertiremos la distribución real en una distribución normal estándar utilizando un estadístico Z, así:
25
−
=
Es una variable aleatoria normal con ( ) = 0 V( ) = 1. Es decir, Z, es una variable aleatoria normal
estándar.
De esta manera, un valor Z mide la distancia entre un valor especificado de X y la media aritmética, en las unidades
de la desviación estándar. Al determinar el valor Z utilizando la expresión anterior, es posible encontrar el área de
probabilidad bajo cualquier curva normal haciendo referencia a la distribución normal estándar en las tablas
correspondientes (Tabla normal estándar-Anexos), dicha tabla proporciona la probabilidad de que la variable aleatoria
normal estándar Z tome un valor situado a la izquierda de un número z, P (Z<z). En otras palabras, esta tabla nos da
el valor del área encerrada por f(x) entre -∞ y z.
Ejemplo:
Cierta máquina fabrica resistores eléctricos que tienen una resistencia promedio de 25 ohmios y una desviación
estándar de 3.2 ohmios. La resistencia tiene una distribución normal.
a) ¿Qué porcentaje de los resistores tendrán una resistencia inferior a 16 ohmios?
( < 16) = ( < 16 − 25 = ( < 2.81) = 0.0025
3.2 )
Lo que implica que el 0.25% de los resistores tienen una resistencia inferior a 16 ohmios.
b) ¿Qué porcentaje de resistores tendrán una resistencia superior a 35 ohmios?
35 − 25
( > 35) = ( > 3.2 ) = ( > 3.13) = 0.0009
Por lo tanto, el 0.09% de los resistores tienen una resistencia superior a 35 ohmios.
c) ¿Qué porcentaje de resistores tendrán una resistencia entre 20 y 32 ohmios?
(20 < > 32) = 20 − 25 < < 32 − 25 = (−1.56 < < 2.19)
( 3.2 3.2 )
= ( < 2.19) − ( > −1.56 = 0.9857 − 0.0594 = 0.9263
Por lo tanto, el 92.6% de los resistores tiene una resistencia entre 20 y 32 ohmios.
d) ¿Por encima de qué valor está el 10% de los resistores con mayor resistencia?
( < ) = 1 − 0.1 = 0.9 → = 1.28
= + = 25 + 1.28(3.2) = 29.10 ℎ
2.5 CADENAS DE MARKOV
Una cadena de Markov es una sucesión de ensayos similares u observaciones en la cual cada ensayo tiene el mismo
número finito de resultados posibles y en donde la probabilidad de cada resultado para un ensayo dado depende sólo
del resultado del ensayo inmediatamente precedente y no de cualquier resultado previo.
26
Llamemos E1, E2…, Ek los estados (resultados) exhaustivos y mutuamente excluyentes de un experimento aleatorio en
cualquier tiempo. Inicialmente en el tiempo 0, el sistema puede estar en cualquiera de estos estados. Sea 0 (j =
0, 1, . . . , k) la probabilidad absoluta de que el sistema se encuentre en el estado en 0. Definamos como
la probabilidad de transición de un paso de ir al estado en −1, al estado en 0, es decir, la probabilidad de que
en el siguiente periodo (paso) se encuentre en , dado que en el periodo (paso) inmediatamente anterior estuvo en
. Supongamos que estas probabilidades son estacionarias (no cambian) a través del tiempo. Las probabilidades de
transición del estado al estado se describen de manera más conveniente en forma matricial como sigue:
11 12 ⋯ 1
= [ 21⋮ 22 ⋱
2 ]
⋮ ⋮
1 2 ⋯
Por ejemplo 21 es la probabilidad de estar en el estado 1 en el siguiente paso, dado que en este momento se
encuentra en el estado 2. La matriz se llama matriz de transición homogénea porque todas las probabilidades
son fijas, independientes del tiempo. Las probabilidades deben satisfacer las condiciones:
∑ = 1, ∀ ≥ 0
Las cadenas de Markov se utilizan para hallar probabilidades luego que haya pasado cantidad de tiempo. Esto se
realiza para cualquier día en el futuro en que se quiera hacer la predicción seda que 2 = el cual corresponde
a las probabilidades de transición en dos pasos, por tanto, si 3corresponde a tres pasos y 4, 5…
corresponde a las probabilidades de 4, 5 y pasos. La matriz se conoce como la matriz de transición en pasos
de la cadena de Markov.
Una matriz de transición se dice que es regular si para algún entero positivo , la matriz no tiene elementos
iguales a cero. Si es una matriz de transición regular, entonces sin importar la matriz de estado inicial, las matrices
de estado sucesivas se aproximan a alguna matriz de estado fija en donde . = . La matriz se denomina
matriz estacionaria del sistema:
11 12 ⋯ 1
= ( 21⋮ 22 ⋱
= ( 1. 2, … . , ); 2 )
⋮ ⋮
1 2 ⋯
11 12 ⋯ 1
. = → ( 1. 2, … . , ) ( 21⋮ 22 ⋱
2 ) = ( 1. 2, … . , )
⋮ ⋮
1 2 ⋯
Siempre se debe cumplir las restricciones dadas anteriormente y además esta:
1. 2, … . , = 1
Nota: a la hora de resolver el sistema de ecuaciones producto de la operación matricial, se debe escoger siempre la
ecuación de restricción.
27
Ejemplo:
El ascensor de un edificio con bajo y dos pisos realiza viajes de uno a otro piso. El piso en el que finaliza el viaje enésimo
del ascensor sigue una cadena de Markov. Se sabe que la mitad de los viajes que parten del bajo se dirigen a cada uno
de los otros dos pisos, mientras que, si un viaje comienza en el primer piso, sólo el 25% de las veces finaliza en el
segundo. Por último, si un trayecto comienza en el segundo piso, siempre finaliza en el bajo. Se pide:
a. Calcular la matriz de probabilidades de transición de la cadena
b. Dibujar el grafo asociado
c. ¿Cuál es la probabilidad de que, a largo plazo, el ascensor se encuentre en cada uno de los tres pisos?
Solución:
a. Los estados de la cadena los denotaremos por {0, 1, 2} haciendo corresponder el 0 al bajo y 1 y 2 al primer
y segundo piso respectivamente.
Las probabilidades de transición son:
00 = ( = 0/ −1 = 0), esto es la probabilidad de que el ascensor se encuentre en la planta baja si en
la etapa anterior estaba en la planta baja. Obviamente es 0, porque se supone que de etapa a etapa el ascensor se
mueve.
01 = ( = 1/ −1 = 0), esto es la probabilidad de que el ascensor se encuentre en la planta primera si
en la etapa anterior estaba en la planta baja. Obviamente es ½ ya que la mitad de los viajes parten para el primer piso
y la otra mitad para el segundo.
Y así sucesivamente vamos obteniendo las distintas probabilidades de transición cuya matriz es:
00 01 02 0 1⁄2 1⁄2
= ( 10 11 12) = (3⁄4 0 1⁄4)
20 21 22 1 0 0
b.
c. = ( 1. 2, … . , )
0 1⁄2 1⁄2
( 1. 2, 3) (3⁄4 0 1⁄4) = ( 1. 2, 3)
100
28
4 1 − 3 2 − 4 3 = 0
{2 1 1 − 2 2 =0 0
+ 2 2 − 4 3 =
1 + 2 + 3 = 1
Solucionando, tenemos:
845
1 = 17 ; 2 = 17 ; 3 = 17
2.6 PRUEBA DE BONDAD DE AJUSTE JI-CUADRADA
La prueba de bondad de ajuste es una prueba de hipótesis que se realiza con frecuencia cuando no se conoce la
distribución fundamental de la población y se quiere probar la hipótesis de que una distribución particular será
satisfactoria como modelo de la población.
Un procedimiento formal para probar la bondad de ajuste es el basado en la distribución ji-cuadrada. Este
procedimiento requiere una muestra aleatoria de tamaño de la población cuya distribución de probabilidad es
desconocida.
Suponer que las observaciones de la muestra están agrupadas en clases, siendo la cantidad de observaciones
en cada clase = , , … ,
Con el modelo de distribución especificado se puede calcular la probabilidad que un dato cualquiera pertenezca a
una clase .
Con este valor de probabilidad se puede encontrar la frecuencia esperada para la clase , es decir, la cantidad de
datos que según el modelo especificado deberían estar incluidos en la clase :
= ∗ , = , , … ,
Tenemos entonces dos valores de frecuencia para cada clase i
: Frecuencia observada (corresponde a los datos de la muestra)
: Frecuencia esperada (corresponde al modelo propuesto)
Estadístico para la prueba de bondad de ajuste Ji-cuadrado es:
= ( − )
∑
=
Distribución Ji-cuadrado con = − − grados de libertad
Donde p es la cantidad de parámetros de la distribución hipotética, estimados por los estadísticos muéstrales. Esta
aproximación mejora conforme n incrementa.
Es una condición necesaria para aplicar esta prueba que ∀ , ≥
Formalmente, se está interesado en probar las hipótesis siguientes:
29
:
:
Dado un valor de (error deseado tipo I), aceptamos si ( ) ≤ , − − y aceptamos si
( ) ≥ , − − .
Ejemplo, distribución normal:
En la siguiente tabla se muestra los datos que representa el diámetro de los agujeros realizados por un taladro sobre
la base giratoria de una grúa. Se desea saber si los datos presentan una distribución normal lo cual certifica que el
taladro está trabajando en buena condición.
Datos del diámetro de los agujeros ̅ σ
15,98 0,28635642
16 16 16,2 16,2 15,5 16 0,24494897
16,2 15,98 0,20493902
16 16,2 15,6 16 16,2 16,02 0,37013511
16,5 16 0,28284271
15,8 16,2 15,9 15,8 16,1 15,94 0,11401754
16,1 15,78 0,37013511
15,7 15,6 16,2 16,1 15,6 15,94 0,28809721
16 15,88 0,083666
16,2 15,7 16,3 15,7 16 16,08 0,16431677
16,1 16,04 0,32093613
15,9 16 15,9 15,8 15,9 15,76 0,13416408
15,6 16,06 0,11401754
15,3 16,3 15,8 15,9 16 15,96 0,33615473
15,7 15,78 0,20493902
15,6 16,1 16,3 15,7 15,6 15,86 0,11401754
15,9 15,94 0,23021729
15,9 15,9 15,8 15,8 16,2 16 0,29154759
16,2 15,92 0,19235384
16,1 15,8 16,2 16,2 16 16,16 0,42778499
16,2 15,954 0,23877938
16 16,3 15,6 16,4 Promedio
15,7 15,9 15,9 15,7
15,9 16,2 16,1 16,1
15,6 16,4 16,2 15,9
15,8 15,6 16,1 15,8
16 15,7 15,9 15,8
16,1 16 15,7 15,7
16 15,5 16,1 16,2
16 15,6 16,1 15,9
16,4 16,7 15,9 15,6
30
Pasos:
1. Planteamos las hipótesis
:
:
2. Se halla el número de intervalos de clase y la longitud del intervalo ℎ
k = 1 + 3.3 ln 100
= 7,6 ≅ 8
1.4
ℎ = = 8 = 0,175
3. Se verifica cuantos datos caen el intervalo, así como lo muestra la siguiente tabla:
k intervalos de clase frecuencia
INF SUP
1 15,3 15,475 1
2 15,475 15,65 13
3 15,65 15,825 20
4 15,825 16 29
5 16 16,175 26
6 16,175 16,35 20
7 16,35 16,525 4
8 16,525 16,7 1
4. Luego se halla la probabilidad para cada intervalo
− ̅
( ≤ )
=
15,475 − 15,954
( ≤ 0,23877 ) = ( ≤ −2,006) = 0,0224
=
15,65 − 15,954 15,475 − 15,954
( ≤ 0,23877 ) − ( ≤ 0,23877 )
= ( ≤ −1,273) − ( ≤ −2,006) = 0,079
31
=
15,825 − 15,954 15,65 − 15,954
( ≤ 0,23877 ) − ( ≤ 0,23877 )
= ( ≤ −0,540) − ( ≤ −1,273) = 0,193
Así sucesivamente, los datos se muestran en la tabla siguiente:
K Intervalos de clase Z acumulado Probabilidad
INF SUP P(Z<z)
1 15,3 15,475 -2,006 0,02242621
2 15,475 15,65 -1,273 0,07905766
3 15,65 15,825 -0,54 0,19302925
4 15,825 16 0,192 0,28186894
5 16 16,175 0,925 0,24627553
6 16,175 16,35 1,658 0,12872752
7 16,35 16,525 2,391 0,04022113
8 16,525 16,7 3,124 0,00750238
5. Luego se obtienen las frecuencias esperadas las cuales salen de multiplicar
∗ = ∗ 1 = 100 ∗ 0,0224 = 2,24 ≈
∗ 2 = 100 ∗ 0,079 = 7,9 ≈
∗ 3 = 100 ∗ 0,193 = 19,3 ≈
∗ 4 = 100 ∗ 0,2818 = 28,18 ≈
∗ 5 = 100 ∗ 0,2462 = 24,62 ≈
∗ 6 = 100 ∗ 0,1287 = 12,87 ≈
∗ 7 = 100 ∗ 0,04 =
∗ 8 = 100 ∗ 0,007 = 0,7 ≈
Frecuencia Frecuencia
Intervalos de clase Observada esperada
INF SUP
1 15,3 15,475 1 2
2 15,475 15,65 13 8
3 15,65 15,825 20 19
4 15,825 16 29 28
5 16 16,175 26 25
6 16,175 16,35 20 13
7 16,35 16,525 4 4
8 16,525 16,7 1 1
32
Σ 100
Debido que es una condición necesaria que ∀ , ≥ 5, entonces los datos observados del intervalo 1 se le suma al
intervalo 2, de la misma manera 6, 7 y 8 se suman y luego se le aplica el estadístico de la chi cuadrada.
Frecuencia Frecuencia
k Intervalos de clase Observada esperada
INF SUP
1 15,3 15,65 14 10 1,6
2 15,65 15,825 20 19 0,05263158
3 15,825 16 29 28 0,03571429
4 16 16,175 26 25 0,04
5 16,175 16,7 25 18 2,72222222
4,45056809
Es decir:
= (14 − 10)2 + (20 − 19)2 + (29 − 28)2 + (26 − 25)2 + (25 − 18)2
10 19 28 25 18
= 1.6 + 0.05 + 0.035 + 0.04 + 2.722 = 4.45
Chi de la tabla: . , − − = ,
Por lo tanto, como el estadístico observado es menor que el estadístico de la tabla ( = 4.45 <
. , − − = , ), se acepta la hipótesis nula
2.7 HERRAMIENTAS ESTADÍSTICAS BÁSICAS PARA EL CONTROL DE CALIDAD
Las herramientas estadísticas básicas de la calidad constituyen una valiosa ayuda para disminuir los productos
defectuosos o encaminarse hacia la excelencia. Estas herramientas, deben ser utilizadas como formas de apoyo
dentro de un proceso de solución de problemas. Las 7 herramientas no son un proceso en sí mismas. Por esto deben
utilizarse de una forma inteligente, para que cumplan con su propósito, que es detectar problemas, para luego
encontrar sus causas, solucionarlas y prevenirlas, de modo que no se repitan. Las 7 herramientas no son una
metodología de solución de problemas, estas dan objetividad y precisión a las observaciones que se hacen de un
proceso o procedimiento establecido para llevar a cabo algo, de tal forma que acaban con las suposiciones del
observador y hacen que no valgan los sentimientos o ideas , sino que el pensamiento se centre en los hechos, es decir,
en las relaciones causa-efecto de lo que sucede, ya que cualquier cosa que acontece, encierra tras ella algo oculto;
es aquí donde las herramientas estadísticas ayudan a encontrar eso que está tras de los problemas.
Las 7 herramientas estadísticas utilizadas para el control de la calidad son las siguientes:
➢ Histograma.
➢ Diagrama de Pareto.
➢ Diagrama de causa y efecto.
➢ Diagrama de dispersión.
33
➢ Cartas de verificación.
➢ Diagrama de concentración de defectos.
➢ Cartas de control.
2.4.3 HISTOGRAMA
En muchos casos, si los datos han sido tomados de forma correcta, se puede obtener conclusiones a partir de los
mismos de forma inmediata; pero si no es así, con frecuencia puede ser necesaria una adecuada representación
gráfica de los mismos. El histograma es una representación gráfica de los datos en la que se puede observar:
1. Forma.
➢ Simétrica
➢ Asimétrica: sesgada a la derecha y sesgada a la izquierda
➢ Multimodal: bimodal (2 picos), trimodal (3 picos), etc.
➢ En peine: puntos anormales no definidos.
➢ Plana: tendiendo a ser una distribución uniforme.
➢ Sin distribución definida.
2. Localización o tendencia central
Si el histograma no es simétrico, entonces los datos no están centralizados. Se debe comparar la media muestral con
el valor nominal para darnos cuenta si se pueden cumplir con las especificaciones.
3. Dispersión o expansión.
Cuando la variabilidad de un proceso es muy amplia, se pueden presentar un número de defectos, es decir, el no
cumplimiento con las especificaciones. Para saber si esto ocurrirá, se hace el estudio de capacidad de los procesos.
2.7.1.1. ¿CÓMO SE CONSTRUYE UN HISTOGRAMA?
Fase 1: Si se tiene un conjunto de datos, de los datos registrados se toma el máximo (M) y el mínimo (m). Seguidamente,
se calcula el denominado rango (R) como diferencia entre el valor máximo y el mínimo.
Fase 2: Ahora, se define el número de clases. El número de clases que se indica mediante K, se elige en función del
número de datos N, para lo que puede usarse el criterio de la raíz cuadrada; K≅√N.
Fase 3: La amplitud de cada clase (H) se obtiene dividiendo el rango de R por el número de clases K. Normalmente, la
amplitud de cada clase se redondea a un valor más cómodo.
Fase 4: En este punto se definen los límites de las clases empezando por el valor mínimo. Este valor se asume como
el límite inferior de la primera clase. El límite superior de la primera clase se calcula sumando al límite inferior la
amplitud de la clase.
El límite superior de la primera clase coincide con el límite
inferior de la segunda clase. Los límites de las clases
sucesivas se definen sumando cada vez el valor de la
amplitud de la clase.
Generalmente, para los valores comprendidos entre dos
clases, se adopta la siguiente convención: Todos los datos que
34
corresponden a los límites de las clases se registran en la clase superior.
Fase 5: Se prepara la tabla de las frecuencias y se registran los datos. El registro de datos requiere especial atención,
ya que ciertos valores pueden corresponder exactamente a los límites.
Fase 6: Posteriormente se procede a realizar la gráfica pertinente y a completar el diagrama, en el que es conveniente
añadir también la fecha, el título y el nombre de quien lo haya preparado.
K Intervalos Frecuencia de los datos por intervalo ( )
( ) Marca de ∗ ∗
clase -
1 → ( + ) A - -
-
2 ( + ) → ( B - -
+ ) + C + - -
-
3- ∑
-
4- D --
5 ( + ∗ ) → E --
= ú Total ∑
= (∑ )
1. Construir un histograma
2. Además, se puede calcular la media y varianza de los datos, utilizando las siguientes fórmulas:
Para la media: ̅ = ∑ ∗
Para la desviación: = √∑ 2 ∗ −[(∑ ∗ )2/ ]
2.7.2 DIAGRAMA DE PARETO
Los problemas de calidad se presentan como perdidas (productos defectuosos y su costo). Es muy importante aclarar
el patrón de la distribución de la perdida. La mayoría de las pérdidas se deberán a unos pocos tipos de defectos, y
estos defectos pueden atribuirse a un número muy pequeño de causas. Si se identifican las causas de estos pocos
defectos vitales, podremos eliminar casi todas las perdidas, concentrándonos en esas causas particulares y dejando
de lado por el momento muchos defectos triviales.
El uso del diagrama de Pareto permite solucionar este tipo de problema con eficiencia.
2.7.2.1 ¿CÓMO ELAVORAR DIAGRAMAS DE PARETO?
Paso 1: Decida qué problemas se van a investigar y como recoger los datos.
1. Decida qué clase de problemas son los que usted quiere investigar.
2. Decida qué datos va a necesitar y como clasificarlos.
3. Defina el método de recolección de los datos.
Paso 2: Diseñe una tabla para conteo de datos, con espacio suficiente para registrar los totales.
35
Paso 3: Diligencia la tabla de conteo y calcule los totales.
Paso 4: Elabore una tabla de datos para el diagrama de Pareto con la lista de ítems, los totales individuales, los totales
acumulados, la composición porcentual y los porcentajes acumulados.
Paso 5: Organice los ítems por orden de cantidad y llena la tabla de datos.
Paso 6: Dibuje dos ejes verticales y uno horizontal.
1) Ejes verticales.
a) Eje izquierdo: Marque este eje con una escala desde 0 hasta el total general.
b) Eje derecho: Marque este eje con una escala desde 0% hasta el 100%.
2) Eje horizontal.
Divida este eje en un número de intervalos igual al número de ítems clasificados.
Paso 7: Construya un diagrama de barras.
Paso 8: Dibuje la curva acumulada (curva de Pareto).
2.7.2.2 USOS DEL DIAGRAMA DE PARETO
Diversos son los usos que se pueden hacer del diagrama de Pareto. El diagrama de Pareto representa uno de los
primeros pasos que deben darse para realizar mejoras. Efectivamente:
➢ Ayuda a definir las áreas prioritarias de intervención.
➢ Atrae la atención de todos sobre las prioridades y facilita la creación del consenso.
36
El diagrama de Pareto responde plenamente a estas exigencias es muy útil para aprender a concentrar los esfuerzos
en los aspectos más importantes y rentables del problema analizado, es decir, en los aspectos que ocupan las partes
más elevadas del propio diagrama.
2.7.3 DIAGRAMA DE CAUSA Y EFECTO
En muchas ocasiones cuando se presenta un problema, se confunde su resolución con la eliminación de los efectos
que produce y esto puede traer consigo malas consecuencias.
Kaoru Ishikawa, en su libro ¿Qué es el control total de calidad?, relata un caso de su propia experiencia. Explica que
cierto dispositivo iba unido a una máquina por medio de cuatro pernos, el perno 1 se rompía con frecuencia por lo que
se decidió sustituirlo por otro de mayor diámetro. A partir del cambio no se volvió a partir el perno 1, pero el perno 2
se empezó a romper, ante la nueva situación se decidió que los cuatro pernos debían ser más grandes y se procedió
al cambio. Con estas medidas ya no se volvió a romper ningún perno, pero empezaron a aparecer fracturas en la
placa de hierro en la que estaba situado el dispositivo, por tal motivo se procede a cambiar la placa de hierro por otra
más gruesa. Posteriormente con la realización de un estudio profundo se puso en manifiesto que una vibración que
llegaba al dispositivo era lo que ocasionaba los fenómenos de ruptura y que si no se eliminaba terminaría rompiendo
la nueva placa metálica o inutilizando el dispositivo por graves consecuencias.
En este caso lo que se estaba haciendo era intentar evitar el efecto del problema, pero sin eliminar su causa y si la
causa permanece el efecto vuelve a manifestarse de forma aún más perjudicial.
Por tal razón, para solucionar un problema deben estudiarse sus causas y eliminarlas, en el caso que planteaba
Ishikawa la causa era la vibración, aunque también debería haberse investigado el origen de esta.
Para saber cuáles son las posibles causas que hay detrás de un efecto es conveniente construir un diagrama de
causa-efecto, para lo cual se sugiere seguir los siguientes pasos:
a. Determinar e identificar claramente cuál es el efecto (el problema, la característica de calidad, etc.) a
estudiar.
b. Realizar una lista de posibles causas.
c. Construir el diagrama teniendo en cuenta que en este diagrama presentan de forma jerarquizada y agrupada
grandes grupos denominados causas primarias, las cuales suelen ser: mano de obra, maquinaria,
materiales, métodos, medio ambiente y mantenimiento (conocidas como las seis M); cada causa primaria
está integrada por varias secundarias, está por terciarias y así sucesivamente, tal como se muestra en la
siguiente figura.
37
2.7.4 DIAGRAMA DE DISPERSIÓN
En la práctica, frecuentemente es necesario estudiar la relación de correspondencia de dos variables. Para estudiar
la relación entre dos variables tales como la velocidad de un piñón y las dimensiones de una parte, o la concentración
y gravedad específica, puede usarse lo que se llama un diagrama de dispersión.
Las dos variables que tratemos pueden enmarcarse así:
a) Una característica de calidad y un factor que la afecta,
b) Dos factores de calidad relacionadas, o
c) Dos factores relacionados con una sola característica de calidad.
Para comprender la relación entre estas, es importante, en primer lugar, hacer un diagrama de dispersión y
comprender la relación global.
2.7.4.1 ¿CÓMO ELABORAR UN DIAGRAMA DE DISPERSIÓN?
Para elaborar un diagrama de dispersión, se siguen los pasos siguientes:
Paso 1: Reúna pares de datos (x,y), cuyas relaciones usted quiere estudiar, y organice esa información en una tabla.
Es deseable tener al menos 30 pares de datos.
Paso 2: Encuentre los valores mínimo y máximo para x y y. Decida las escalas que va a usar en los ejes horizontal y
vertical de manera que ambas longitudes sean aproximadamente iguales, lo cual hará que el diagrama sea más fácil
de leer. Trate de mantener el número de divisiones de cada eje entre 3 y 10 y use números redondos para facilitar la
lectura. Cuando las dos variables sean un factor y una característica de calidad, use el eje horizontal x para el factor
y el eje vertical y para la característica de calidad.
Paso 3: Registre los datos en el gráfico. Cuando se obtengan los mismos valores en diferentes observaciones,
muestre estos puntos haciendo círculos concéntricos, o registre el segundo punto muy cercano al primero.
Paso 4: Registre todos los aspectos que puedan ser de utilidad, de tal forma que cualquier persona que utilice el
diagrama lo interprete fácilmente: Nombre, unidades de variables, número de puntos, periodo de tiempo en que se
realizó el diagrama, autor o autores, aparato de medida, etc.
38
2.7.5 CARTA DE VERIFICACIÓN
Es común que con frecuencia sea necesario recolectar datos de operación, sean históricos o actuales, acerca del
proceso bajo investigación, una hoja de verificación puede ser de gran utilidad en esta actividad. En esta se resume
información en función del tiempo, lo cual es particularmente valioso para buscar tendencias y otros patrones
importantes. Por ejemplo, si muchos defectos ocurren durante el verano, una posible causa que deba investigar es la
contratación de obreros eventuales durante un periodo vacacional. Cuando se diseña una hoja de verificación, es
importante especificar claramente el tipo de datos que van obtenerse, el número de parte u operación, la fecha, el
analista y cualquier otra información útil para diagnosticar la causa del desempeño pobre. Si la hoja de verificación
es la base para realizar cálculos adicionales, o si se usa como hoja de trabajo para capturar datos en una
computadora, entonces es importante asegurarse de que la hoja de verificación adecuada para este propósito antes
de que se invierta esfuerzos considerables en la obtención real de los datos.
2.7.6 DIAGRAMA DE CONCENTRACIÓN DE DEFECTOS
Un diagrama de concentración de defectos es un dibujo de la unidad, donde se muestran todas las vistas relevantes,
se marcan en el dibujo los diferentes tipos de defectos, y el finalmente se analiza para determinar si la localización
de los defectos en la unidad transmite cualquier información útil sobre las causas potenciales de los defectos.
Cuando los datos de los defectos se representan en un diagrama de concentración de defectos para u número
suficiente de unidades, es común que surjan patrones y la localización de estos patrones suele contener mucha
información sobre la causa de los defectos.
En la siguiente figura se muestra un diagrama de concentración de defectos en la etapa de ensamblaje final de un
proceso de fabricación de refrigeradores:
39
En este diagrama se puede observar los defectos de terminado superficial que se identifican como las áreas
sombreadas oscuras en el refrigerador. Al inspeccionar el diagrama parece claro que el manejo de material es el
causante de la mayoría de estos defectos. La unidad se mueve fijando un cinturón en la parte media y este cinturón
está muy flojo (o muy apretado), desgastado, está hecho de un material abrasivo o es demasiado angosto. Además,
cuando la unidad se mueve se están dañando las esquinas. Es posible que la fatiga del trabajador sea un factor en este
proceso. De cualquier modo, los métodos de trabajo apropiados y el manejo mejorado de los materiales probablemente
mejorarán este proceso sustancialmente.
2.7.7 CASITA DE LA CALIDAD
La casa de la calidad es un método gráfico mediante el cual se relacionan las necesidades del cliente con los atributos
del diseño. Utilizando una estructura matricial se puede determinar los grados de relación entre los deseos de los
clientes y el cómo llevarlos a cabo en la realización del producto. De cara a nuestro caso particular es importante
dejar definido tanto el producto sobre el cual vamos a construir la casa de la calidad como quienes son los clientes.
Esto simplemente nos permite evaluar las necesidades de los clientes, basándose en encuestas, entrevistas, etc., para
centrar las necesidades prioritarias y saber cómo centrar los esfuerzos en el rediseño del proceso de negocios.
Pasos para construir la casita de la calidad:
I. Seleccionar un producto/servicio importante a mejorar.
II. Obtener la voz del cliente.
III. Extraer las necesidades del cliente.
IV. Organizar las necesidades del cliente.
V. Priorizar las necesidades del cliente.
VI. Establecer los parámetros de diseño.
VII. Generar la matriz de relaciones.
VIII. Obtener la evaluación de desempeño del cliente.
IX. Correlacionar los parámetros de diseño.
X. Analizar los resultados.
XI. Iterar el proceso.
40
2.7.8 CARTAS DE CONTROL
Controlar la calidad de los bienes y servicios producidos por las instalaciones de una empresa es un complejo trabajo
que incluye las herramientas para reunir evidencias sobre unos hechos, interpretarlos y actuar según estas
interpretaciones. Es un subsistema de retroinformación del sistema de producción. La información que se obtiene
sobre la calidad es utilizada para alterar el sistema de producción a fin de aproximarse más a la calidad objetivo.
Las cartas de control son la herramienta más poderosa para analizar la variación en la mayoría de los procesos. Han
sido difundidas exitosamente en varios países dentro de una amplia variedad de situaciones para el control del
proceso. Las cartas de control enfocan la atención hacia las causas especiales de variación cuando estas aparecen y
reflejan la magnitud de la variación debida a las causas comunes. Las causas comunes o aleatorias se deben a la
variación natural del proceso. Las causas especiales o atribuibles son, por ejemplo: un mal ajuste de máquina, errores
del operador, defectos en materias primas.
Se dice que un proceso está bajo Control Estadístico cuando presenta causas comunes únicamente. Cuando ocurre
esto tenemos un proceso estable y predecible. Cuando existen causas especiales el proceso está fuera de Control
Estadístico; las gráficas de control detectan la existencia de estas causas en el momento en que se dan, lo cual permite
que podamos tomar acciones al momento.
41
Los tipos de cartas de control y la manera de utilizarlas será una temática tratada a profundidad en el capítulo 4 de
este módulo.
42
CAPÍTULO 3
ANÁLISIS DE CAPACIDAD DE PROCESOS
En este capítulo se presenta el estudio de capacidad de procesos, es decir, la forma en que se compara la
variabilidad inherente de un proceso con las especificaciones o requerimientos del producto, dando los
fundamentos estadísticos para la medición de la variación y la proporción de productos no conformes utilizando
los índices de capacidad potencial y real del proceso
43
DEFINICIONES BASICAS
Proceso: Éste se refiere a alguna combinación única de máquinas, herramientas, métodos, materiales y personas
involucradas en la producción.
Capacidad del proceso: Es la aptitud del proceso para producir productos dentro de los límites de especificaciones
de calidad.
Estado de control: Un proceso se dice que se encuentra bajo control estadístico si sólo se ve afectado por un conjunto
de causas aleatorias de variación.
Si el proceso se encuentra afectado por causas asignables de variación, se dice que está fuera de control.
Capacidad medida: Esto se refiere al hecho de que la capacidad del proceso se cuantifica a partir de datos que, a su
vez, son el resultado de la medición del trabajo realizado por el proceso.
Capacidad inherente: Se refiere a la uniformidad del producto que resulta de un proceso que se encuentra en estado
de control estadístico, es decir, en ausencia de causas especiales o atribuibles de variación.
Variabilidad natural: Los productos fabricados nunca son idénticos sino que presentan cierta variabilidad, cuando el
proceso está bajo control, solo actúan las causas comunes de variación en las características de calidad.
Valor Nominal: Las características de calidad tienen un valor ideal óptimo que es el que desearíamos que tuvieran
todas las unidades fabricadas pero que no se obtiene, aunque todo funcione correctamente, debido a la existencia de
la variabilidad natural.
3. ANÁLISIS DE CAPACIDAD DEL PROCESO
Se define como el estudio de ingeniería para estimar la capacidad del proceso. La estimación de la capacidad del
proceso puede estar en la condición de una distribución de probabilidad que tenga una forma, centro (media) y
dispersión (desviación estándar) especificados. El análisis de capacidad del proceso puede llevarse a cabo sin tomar
en consideración las especificaciones de la característica de la calidad. De manera alternativa, la capacidad del
proceso puede expresarse como un porcentaje fuera de las especificaciones. Sin embargo las especificaciones no
son necesarias para realizar el análisis de capacidad del proceso.
Es considerando como una técnica muy útil en el ciclo de un producto, incluye las actividades de desarrollo previas
a la manufactura, para cuantificar la variabilidad del proceso, analiza la variabilidad respecto a los requerimientos
o especificaciones del producto y ayuda al personal de desarrollo y manufactura a eliminar o reducir en gran medida
esta variabilidad.
En términos generales el análisis de capacidad del proceso es un parte vital de un programa integral de mejoramiento
de calidad. Entre los usos principales de los datos de un análisis de capacidad del proceso se encuentran los siguientes:
➢ Predecir la medida en que el proceso se apegará a las tolerancias.
➢ Brindar asistencia a las responsables del desarrollo y diseño del producto para seleccionar o
modificar un proceso.
44
➢ Ofrecer asistencia para establecer un intervalo entre el muestreo para monitorear el proceso.
➢ Especificar los requerimientos de desempeño para el equipo nuevo.
➢ Seleccionar entre proveedores competidores.
➢ Plantear la secuencia de los procesos de producción cuando está presente un efecto interactivo de
los procesos sobre las tolerancias.
➢ Reducir la variabilidad en un proceso de manufactura.
3.1 CAUSAS COMUNES Y ESPECIALES DE VARIACION
Causas Comunes o causas Naturales: La variabilidad natural siempre existe en cualquier proceso de producción,
no importa que tan bien diseñado esté. Esta variabilidad natural es denominada causas comunes o aleatorias de
variabilidad, es decir:
➢ Inherentes al proceso. Siempre existen.
➢ Esta variación es el efecto de varias pequeñas causas y no puede ser totalmente eliminada.
➢ Cuando la variación es pequeña se dice que el sistema está en estado estable de causas comunes bajo
control estadístico.
Ejemplos:
• Variación de materia prima de un proveedor calificado.
• Vibración de la maquinaria.
• Cambios en las condiciones de trabajo.
Causas Asignables o Especiales: Se trata de variaciones en un proceso de producción que pueden atribuirse a
causas específicas, es decir:
➢ La variabilidad originada por causas asignables es algo para lo cual se puede determinar una razón.
➢ La magnitud de la variación en estas circunstancias es mayor que la influencia de causas comunes.
Ejemplos:
• Uso de herramientas inadecuada
• Inadecuada materia prima.
• Errores de los operadores.
45
3.2 TIPOS DE PROCESOS
El concepto de capacidad del proceso puede ser comprendido mejor con la exposición de algunos de los conceptos
más frecuentes. La figura siguiente presenta el caso ideal de un proceso en estado de control estadístico, pero esta
no será siempre la condición que se presente cotidianamente.
3.2.1 Algunos tipos de procesos más comunes
46
a. Cambio repentino debido al ajuste de la herramienta, cambio en las características de la materia prima.
b. Interrupción, durante la cual la máquina se enfría y luego gradualmente se calienta de nuevo hasta que
se restablece la dimensión original.
c. Puesta en marcha de una máquina el lunes en la mañana con el correspondiente ajuste del
equipo.
d. Ajustes frecuentes o corrección.
e. Cambios en la dispersión y en la cota debido a cambios en las condiciones de operación o cambios en la
materia prima.
La mayor parte de los procesos industriales, especialmente en las industrias de procesos químicos, funcionan bajo
estado de control estadístico. Para estos procesos, la capacidad del proceso calculada de 6 σ puede ser comparada
diferente a las especificaciones y se puede hacer juicio sobre su adecuación. Sin embargo la mayoría de los procesos
industriales muestran desviaciones y cambios repentinos. Estas desviaciones de lo ideal son un hecho real y deben
tenerse en cuenta en el momento de calcularse los índices de capacidad del proceso.
3.3 INDICES DE CAPACIDAD
Producción bajo control no significa que el proceso satisfaga las especificaciones de calidad (externas) fijada por el
diseñador, el productor o el comprador variabilidad es muy grande, sobre todo si la. Se utiliza este método estadístico
para medir el funcionamiento de un proceso. Se dice que un proceso está funcionando bajo control estadístico cuando
las únicas causas de variación son causas comunes (naturales).
El estudio de capacidad trata de determinar la habilidad que tiene un proceso de cumplir dichas especificaciones; es
decir, la capacidad del proceso nos indica cuantas veces cabe la variabilidad natural del proceso en el intervalo de
especificación.
Tiene como objetivo:
➢ Cuantificar la variabilidad
➢ Analizar la variabilidad respecto a las especificaciones del producto.
➢ Reducir en lo posible la variabilidad (revisando o modificando el proceso)
Se acostumbra a tomar la dispersión seis sigmas en la distribución de la característica de la calidad del producto como
una medida de la capacidad del proceso. A continuación se muestra un proceso para el que la característica de calidad
tiene una distribución normal con media μ y desviación estándar σ. Los “límites de tolerancia natural” superior e
inferior del proceso son ± 3 , es decir:
= μ + 3σ
= μ − 3σ
Si la característica de calidad es normal y el proceso está bajo control, los limites naturales incluyen el 99,73% de
los valores, es decir, el proceso fabrica un 0.27% de productos no conformes.
➢ El valor 0.27% fuera de las tolerancias naturales suena pequeño, pero corresponde a 3.4 partes por millón
disconformes.
47
➢ Si la distribución de la salida del proceso no es normal, entonces el porcentaje de la salida que quedara
fuera de ± 3 puede diferir considerablemente de 0.27%.
La estimación de la capacidad del proceso puede estar en la condición de una distribución de probabilidad que tenga
una forma, centro (media) y dispersión (desviación estándar) especificados.
En el estudio de capacidad del proceso por lo general se miden las dimensiones físicas del producto, no el proceso en
sí. Cuando el analista puede observar directamente el proceso y puede controlar y monitorear la colección de datos,
el estudio es un verdadero estudio de capacidad del proceso, ya que al controlar la colección de datos y conocer la
secuencia en el tiempo de los datos, es posible hacer inferencias en la estabilidad del proceso en el tiempo. Por esta
razón, para desarrollar un análisis de capacidad del proceso, es necesario utilizar los siguientes supuestos, o
comprobarlos a través de herramientas estadísticas.
➢ Los datos obtenidos en el desarrollo de un muestreo se ajustan a una Distribución Normal.
➢ El proceso se encuentra bajo control estadístico, es decir, es afectado únicamente por su variabilidad
natural.
Este análisis se debe realizar cuando:
• Se trata de una nueva máquina o proceso.
• Se ha modificado en sus partes esenciales.
• Se ha reajuste para fabricar nuevos productos.
• Existencias de nuevos proveedores.
• Se requiera asistencia en el desarrollo, diseño del producto y muestreo del proceso.
En la manufactura hay tres fases importantes sobre cualquier producto: diseño, producción, e inspección. Las
especificaciones generalmente son establecidas en la fase de diseño, y durante la producción se intentan cumplir
esas especificaciones. Finalmente, durante la inspección se determina el grado con el cual las unidades producidas
cumplen las especificaciones.
En el análisis de capacidad del proceso se utilizan tres técnicas principales: histogramas, graficas de probabilidad,
cartas de control y experimentos diseñados.
3.3.1 INDICE DE CAPACIDAD POTENCIAL, Cp
Es un conjunto de indicadores que definen que tan capaz es un proceso de cumplir las especificaciones establecidas
por el cliente. Se puede decir también que es una forma cuantitativa simple para expresar la capacidad del proceso.
Su valor está dado a partir de una relación entre la Tolerancia de las especificaciones del proceso, determinadas
por petición del cliente, y la variabilidad natural del proceso, para este caso seis sigma (6 ).
Para el cálculo del Cp
• Determine el límite de especificación superior (LSE) y el límite de especificación inferior (LIE).
• Calcule la desviación estándar y el promedio del proceso.
48
• El índice Cp mide la capacidad potencial, suponiendo que el promedio del proceso es igual al punto medio
de los límites de especificación y que el proceso está operando bajo control estadístico.
−
= 3 + 3 = 6
En este orden de ideas, de acuerdo con el valor que tome el índice de capacidad Cp, los procesos pueden clasificarse
de la siguiente manera:
NOTA: El Cp solo compara el ancho de las especificaciones con la amplitud de la variación del proceso, por lo que NO
mira cuan bien está centrado el promedio del proceso con relación al valor de la meta. Si la variación del proceso es
mayor que la amplitud de las especificaciones, entonces el Cp es menor que uno; es evidencia de que no se está
cumpliendo con las especificaciones. Por el contrario, si el índice Cp es mayor que uno, entonces es evidencia de que
el proceso es potencialmente capaz de cumplir con las especificaciones
En general, el Cp se utiliza para conocer y tomar decisiones sobre el proceso, dependiendo de su valor es el tipo de
proceso y la decisión que ha de tomarse. Si al analizar un proceso se encuentra que su capacidad no es compatible
con las tolerancias, existen tres opciones:
➢ Modificar el proceso.
➢ Modificar las tolerancias o especificaciones.
➢ Inspeccionar el 100% de los productos.
Aunque este parámetro es de gran utilidad, su cálculo no toma en consideración dónde se localiza la media del proceso
respecto de las especificaciones. El solamente mide la extensión de las especificaciones en comparación con la
dispersión seis sigmas del proceso. En distintas situaciones su valor puede indicar un proceso más que adecuado,
es decir, capaz, pero si la media del proceso no coincide con la media de las especificaciones (Valor Nominal), es
muy probable que se encuentre arrojando productos fuera de especificaciones, o sea, no conformes, ya sea por el
límite superior o por el inferior. Esta situación se puede apreciar en la siguiente distribución de datos:
49
3.3.2 INDICE DE CAPACIDAD REAL DEL PROCESO
Este índice si toma en cuenta el centrado del proceso respecto a las especificaciones, en este caso se denomina Cpk,
cuando el índice es ineficaz, es decir, cuando no hay coincidencia entre la media del proceso y la media de las
especificaciones, es necesario el uso de , índice conocido también como capacidad real del proceso. De esta
manera, es común decir que mide la capacidad potencial del proceso, mientras que la capacidad real.
Si el promedio actual es igual al punto medio del rango de especificación, entonces Cpk= Cp. Entre más alto sea el
valor de Cpk, más baja será la cantidad de producto que esté fuera de los límites de especificación
Se evalúa tomando el mínimo entre los Cp’s (Cpu y Cpl) correspondientes a cada lado de la media, como sigue
= ( ; )
− ̅
= 3
̅ −
= 3
Dónde:
: Capacidad del proceso teniendo en cuenta únicamente la especificación superior del proceso.
: Capacidad del proceso teniendo en cuenta únicamente la especificación superior del proceso.
: Límite de especificación inferior de la variable.
: Límite de especificación superior de la variable.
̅ : Valor promedió encontrado de los datos.
: Desviación estándar del proceso.
y solo evalúan la mitad de la distribución de los datos teniendo en cuenta solo 3σ. Es útil cuando la
especificación de la variable, solo se expresa como un máximo o como un mínimo, para indicar al analista en que
sector de la especificación (superior o inferior) se presenta más riesgo de incumplimiento de los valores
establecidos.
Los valores de Cpk, son ampliamente utilizados como indicadores de la calidad de un proceso o producto. El valor de
Cpk = 1.33 se ha establecido como un parámetro deseado porque la obtención de este valor en un proceso o producto
significa que por cada 10000 mediciones 3 de ellas existe la probabilidad estadística que se encuentre fuera de los
limites d especificación.
50