EL CONTROL DE CALIDAD

 

Fue en Norteamérica, en los años 20, donde surgieron los pioneros de la aplicación de métodos estadísticos a la mejora de los procesos de producción para conseguir mayor grado de consistencia y calidad del producto final. Este tipo de métodos, fue utilizado por la industria norteamericana durante la Segunda Guerra Mundial, pero tras ella, las empresas dejaron de utilizarlos, en gran medida, porque en aquellos momentos, se podía fabricar en los Estados Unidos cualquier cosa y venderla sin problemas en los mercados mundiales. Por contra, Japón acabó la guerra con una industria arruinada. Los japoneses abrazaron enseguida, no sólo los métodos estadísticos aplicados a la fabricación, sino también, la filosofía de gestión que conllevaban. Pronto Japón, conseguía abrirse mercados, con artículos de gran calidad, mientras los Estados Unidos, perdían progresivamente cuotas de mercado en favor de los japoneses, debido a la menor calidad de los productos que ofrecían.

 

En la actualidad, ninguna empresa que se precie puede despreciar este tipo de métodos, que permiten la mejora de los procesos de producción (con el ahorro de tiempo y dinero que ello supone), y de la calidad del producto final.

 

Pero, ¿qué es exactamente calidad?. Alguien dijo alguna vez, que “un cliente satisfecho”, es una buena definición. Otras definiciones, incluyen términos tales como “concordancia, del producto con las especificaciones del mismo”, “ajuste a lo que el cliente espera”, ...etc.  Y ¿cómo se puede controlar  o mejorar la calidad?. No existe una única respuesta a esta pregunta, pero veremos ahora algunas de las herramientas que se emplean para el control de calidad.

 

Con respecto a la mejora de la calidad, existe un lema que se adapta a la mayoría de los casos, “reducir la variabilidad del proceso”. Conseguirlo es  costoso y complicado, dado que eliminar las variaciones naturales de un proceso, resulta bastante difícil.

 

La dispersión o variabilidad de un conjunto de datos es uno de los factores más importantes en estadística. El significado de la  dispersión de los datos depende del contexto en el que se esté tratando.

 

Si una variedad de trigo tiene una alta variabilidad en sus cosechas, un campesino que la utilice no sabrá nunca hasta que punto las cosechas de ese año van a ser o no suficientes, y preferirá siempre otra variedad con mayor homogeneidad. Si la variabilidad en el resultado de una operación quirúrgica llevada a cabo mediante una determinada técnica es muy alta, los cirujanos preferirán aplicar otra técnica cuyos resultados sean más predecibles.  La calidad de los servicios o de los artículos que compramos depende no sólo de que sus características principales tengan  una buena media, sino sobre todo de su homogeneidad. A nadie le gusta que si compra un paquete de 1 Kg. de un producto, éste pueda pesar 950 gr. De la misma forma, no nos dice nada que el tiempo medio en que una compañía de mensajeros entrega un paquete en una ciudad sea de 40 minutos, si el nuestro nos llega al cabo de 4 horas.

 

Algunas oficinas bancarias, han suprimido las colas múltiples delante de las ventanillas, por una sola cola que abastece a todas las ventanillas. ¿Acaso lo han hecho por que resulte menor el tiempo medio de espera de los clientes?. No, el tiempo medio no varía, pero de esta forma, se trata de eliminar la variabilidad en los tiempos de espera ( en el primer sistema si damos con una cola lenta podemos pasar mucho tiempo en ella) .La homogeneidad de los resultados es, en términos económicos, de la máxima importancia y normalmente la clave para la calidad y el éxito.

 

Imagina por ejemplo, que queremos controlar la calidad de embotellamiento de “ColaSola”. Si las botellas han de contener 250 cc, será necesario en primer lugar que la máquina encargada del proceso, tenga una media de 250 cc, con la menor variación posible. Imaginemos que se consigue que el proceso tenga la distribución N(250; 3).

 Utilizando la desigualdad de Chebyshev, sabemos que el 99,9% de las anotaciones deben estar en el intervalo , es decir entre 241 y 259 cc.

El proceso a seguir, incluye en primer lugar introducir el uso de tablas de control, del tipo de la figura , de forma que de cierto en cierto tiempo,  tomemos  una botella, estudiemos su contenido y lo representemos.

 

El primer objetivo a conseguir, es la estabilidad estadística del proceso. Un proceso es estadísticamente estable, cuando en su tabla de control, las variaciones son naturales, es decir, las inherentes a cualquier proceso incapaz de producir cada bien, acción o servicio, de forma exactamente igual cada vez (lo cual corresponde a la mayoría de los procesos). Existen una serie de criterios objetivos para dictaminar si un proceso es estable, entre los que se incluyen, que los valores obtenidos estén entre los límites superior e inferior, determinados por los valores  que se encuentran a 3 desviaciones típicas de la media, por encima y debajo,  que no haya más de 8 valores seguidos por encima o debajo de la media,….etc. Observando el gráfico de control, notaremos si se producen variaciones debidas a fallos mecánicos, falta de preparación de los operarios o de cualquier otro tipo, que den lugar a variaciones no naturales.

 

Además, si hacemos uso del Teorema Central del Límite, podemos mejorar la eficiencia de este procedimiento. En concreto, si tomamos muestras de tamaño 40 en lugar de valores individuales cada vez, dado que la variación de las medias es inferior ( en concreto   ), la tabla de control será más sensible a las variaciones que se desea detectar.

 

Conseguida la estabilidad del proceso, se hace necesario, utilizar tablas de control de la calidad cada cierto intervalo de tiempo de forma que se detecten y se corrijan los problemas que se presenten.