El Mantenimiento Como Fuente de Rentabilidad

35
. El Mantenimiento como Fuente de Rentabilidad Para evaluar la gestión del mantenimiento, se han de definir claramente los objetivos que el mantenimiento pretende conseguir. Estos objetivos se fijarán en función de los objetivos de la empresa (rentabilidad, en mercados competitivos). La mejor manera de saber si dichos objetivos se consiguen o no y cómo contribuyen a mejorar la competitividad de la empresa es cuantificarlos en términos monetarios. Hoy en día, las estrategias del mantenimiento están encaminadas a garantizar la disponibilidad y eficacia requerida de las unidades, equipos e instalaciones, asegurando la duración de su vida útil y minimizando los costos de mantenimiento, dentro del marco de la seguridad y el medio ambiente. Los factores críticos de éxito de la gestión del mantenimiento son la Disponibilidad y la Eficiencia, que van a indicarnos la fracción de tiempo en que las unidades o equipos están en condiciones de servicio (Disponibilidad) y la fracción de tiempo en que su servicio resulta efectivo para la producción. La disponibilidad se ha de tener sólo cuando se requiere, lo cual no quiere decir que haya de ser por igual en todos los recursos (unidades), pues depende mucho de la criticidad de los mismos, y esa criticidad puede variar según las condiciones del mercado. Tener una disponibilidad demasiado elevada en recursos (unidades) que no la necesitan sólo ocasiona un exceso de costos, al hacer un uso excesivo de los recursos de mantenimiento.

description

uni

Transcript of El Mantenimiento Como Fuente de Rentabilidad

Page 1: El Mantenimiento Como Fuente de Rentabilidad

. El Mantenimiento como Fuente de Rentabilidad

     Para evaluar la gestión del mantenimiento, se han de definir claramente los objetivos que el mantenimiento pretende conseguir. Estos objetivos se fijarán en función de los objetivos de la empresa (rentabilidad, en mercados competitivos). La mejor manera de saber si dichos objetivos se consiguen o no y cómo contribuyen a mejorar la competitividad de la empresa es cuantificarlos en términos monetarios.

     Hoy en día, las estrategias del mantenimiento están encaminadas a garantizar la disponibilidad y eficacia requerida de las unidades, equipos e instalaciones, asegurando la duración de su vida útil y minimizando los costos de mantenimiento, dentro del marco de la seguridad y el medio ambiente.

     Los factores críticos de éxito de la gestión del mantenimiento son la Disponibilidad y la Eficiencia, que van a indicarnos la fracción de tiempo en que las unidades o equipos están en condiciones de servicio (Disponibilidad) y la fracción de tiempo en que su servicio resulta efectivo para la producción.

     La disponibilidad se ha de tener sólo cuando se requiere, lo cual no quiere decir que haya de ser por igual en todos los recursos (unidades), pues depende mucho de la criticidad de los mismos, y esa criticidad puede variar según las condiciones del mercado. Tener una disponibilidad demasiado elevada en recursos (unidades) que no la necesitan sólo ocasiona un exceso de costos, al hacer un uso excesivo de los recursos de mantenimiento.

     La mejora en los dos ratios de Disponibilidad y eficiencia y la disminución de los costos de mantenimiento suponen el aumento de la rentabilidad de la empresa y por tanto tiene influencia directa sobre las utilidades.

4.1  Evolución del concepto de Mantenimiento

     Antes de esta mirada a aspectos del mantenimiento revisemos algunas definiciones básicas:

Mantenimiento Preventivo: Tarea  que involucra cambios/reconstrucciones de partes/equipo  bajo una base regular, sin importar el estado de las mismas.

Mantenimiento Predictivo: Busca mediante  inspecciones periódicas   determinar   cuando   cambiar o reconstruir una parte/equipo en función del estado actual de los mismos.

Page 2: El Mantenimiento Como Fuente de Rentabilidad

Mantenimiento Detectivo: Busca detectar la ocurrencia de fallas ocultas en equipos de protección y/o respaldo.

Mantenimiento Correctivo: Restitución del equipo al estado operativo óptimo después de la ocurrencia de una falla.

Riesgo: Dado matemáticamente por el producto de la probabilidad de ocurrencia de un evento y sus consecuencias

     El objetivo fundamental del mantenimiento, es preservar la función y la operabilidad, optimizar el rendimiento y aumentar la vida útil de los activos, procurando una inversión óptima de los recursos. Este enfoque del mantenimiento es resultado de una evolución importante a través del tiempo. La literatura [1] distingue entre tres generaciones diferentes de mantenimiento. Cada una de las cuales representa las mejores prácticas utilizadas en una época determinada.

     En los últimos años se ha vivido un crecimiento muy importante de nuevos conceptos de mantenimiento y metodologías aplicadas a la gestión del mantenimiento.

     Hasta finales de la década de los 90, los desarrollos alcanzados en la 3º generación del mantenimiento incluían:

Herramientas de ayuda a la decisión, como estudios de riesgo, modos de falla y análisis de causas de falla.

Nuevas técnicas de mantenimiento, como el monitoreo de condición Equipos de diseño, dando mucha relevancia a la confiabilidad y

mantenibilidad. Un cambio importante en pensamiento de la organización hacia la

participación, el trabajo en equipo y la flexibilidad

     A estos usos, se han ido añadiendo nuevas tendencias, técnicas y filosofías de mantenimiento hasta nuestros días, de tal forma que actualmente se puede hablar de una “cuarta generación” del mantenimiento.

     El nuevo enfoque se centra en la eliminación de fallas utilizando técnicas proactivas. Ya no basta con eliminar las consecuencias de la falla, sino que se debe encontrar la causa de esa falla para eliminarla y evitar así que se repita.

     Asimismo, existe una preocupación creciente en la importancia de la mantenibilidad y confiabilidad de los equipos, de manera que resulta clave tomar

Page 3: El Mantenimiento Como Fuente de Rentabilidad

en cuenta estos valores desde la fase de diseño del proyecto. Otro punto importante es la tendencia a implantar sistemas de mejora continua de los planes de mantenimiento preventivo y predictivo, de la organización y ejecución del mantenimiento.

     A parte de estas características descritas anteriormente, existen otros dos temas importantes dentro del mantenimiento actual cuya importancia ha aumentado de manera muy importante en los últimos años:

La Gestión del Riesgo: Cada día cobra más importancia la identificación y control de los posibles sucesos que presentan una baja probabilidad pero consecuencias graves, sobre todo en organizaciones que operan en industrias con riesgo. El mantenimiento se está viendo como un participante clave en este proceso. En el pasado, este tipo de sucesos se controlaban simplemente con una extensión de los Sistemas de Gestión de Seguridad y Medio Ambiente implantados en cada empresa. Sin embargo, existe una creciente percepción de que la aplicación de estos sistemas de gestión a los sucesos de “baja probabilidad / consecuencias graves” no es efectiva, por lo que es necesario desarrollar otras metodologías.

Patrones de Falla: Las nuevas investigaciones están cambiando muchas de las tradicionales creencias sobre la relación existente en una máquina entre el envejecimiento y la falla. En particular, se ha demostrado que para muchos equipos existe muy poca relación entre el tiempo de operación y la probabilidad de falla. El enfoque inicial del mantenimiento suponía que la probabilidad de que una máquina falle aumenta según el tiempo de operación, siendo mayor la probabilidad de falla en la “vejez” de la máquina. La segunda generación de mantenimiento introdujo el concepto de “mortalidad infantil”. De esta forma la tasa de fallas de una máquina puede ser representada con una curva de bañera, existiendo, por tanto, más probabilidad de falla durante el principio y el final de su vida útil

     Sin embargo, en el mantenimiento actual se ha demostrado que podemos definir seis patrones diferentes de tasa de fallas, según el tipo de máquina que estemos utilizando.

     Tener en cuenta el patrón al que se ajusta cada elemento es fundamental si se quiere conseguir una óptima planificación del mantenimiento.

     Debemos estar seguros de que el mantenimiento que ha sido planificado es el adecuado, ya que de nada sirve realizar el trabajo planificado de manera correcta, si éste no es el más adecuado.

Page 4: El Mantenimiento Como Fuente de Rentabilidad

 

Figura 4.1: Nuevos patrones de tasas de falla.

     Para los patrones de falla A, B y C, la probabilidad de falla aumenta con la edad hasta alcanzar un punto en el que es conveniente reemplazar el componente antes de que falle y así reducir su probabilidad de falla. En el caso de los componentes que presentan una probabilidad de falla del modelo E, reemplazar el componente no mejorará en ningún caso su confiabilidad, ya que el nuevo elemento tendrá la misma probabilidad de falla que el antiguo.

     Si el patrón de falla al que se ajusta el componente es el F, reemplazar el elemento a intervalos fijos por un componente nuevo, no sólo no mejorará la confiabilidad, sino que aumentará la probabilidad de falla, ya que en la“infancia” presenta más mortalidad que en la vejez.

     En el gráfico se observa que más del 50% de los componentes presentan fallas en la “infancia”. Esto quiere decir que cada vez que se repara o reemplaza un equipo, las posibilidades de falla prematura debido a esa operación de mantenimiento son muy elevadas. Alguna de las posibles explicaciones que se pueden dar a este hecho, son errores humanos, errores del sistema,  errores de diseño o errores de piezas.

     Por lo visto anteriormente, está claro que el mantenimiento actual debe centrarse en reducir las operaciones de mantenimiento provocadas por fallas que se ajustan al modelo F. Es decir, fallas ocurridos en la “infancia” de los equipos. Para los elementos que ajusten su tasa de fallas a este patrón F, un mantenimiento planificado a intervalos fijos aumentará las posibilidades de falla, ya que el equipo nuevo presentará más probabilidad de falla que el antiguo. Por ese motivo existe una tendencia generalizada a “mantener lo mínimo posible”, debido a que

Page 5: El Mantenimiento Como Fuente de Rentabilidad

cualquier operación de mantenimiento realizada puede aumentar la probabilidad de falla.

     Otra posibilidad, es centrarse en reducir de manera global las probabilidades de falla sobre todos los modelos. La forma de realizar esto, es mediante la utilización de un Mantenimiento Proactivo, es decir buscar la forma de eliminar los fallas, más que eliminar sus consecuencias.                 Para eliminar las fallas, hay que eliminar sus causas, lo que implica conocerlas. Existen herramientas como el Análisis Causa-Raíz que ayudan a identificar y eliminar las causas de los fallas, aunque en muchas ocasiones se utiliza como una herramienta reactiva más que proactiva.

     A modo de resumen, en las siguientes gráficas se presenta como han ido evolucionando las expectativas y técnicas del mantenimiento durante el último siglo:

Figura 4.2: Objetivos del Mantenimiento.

Page 6: El Mantenimiento Como Fuente de Rentabilidad

Figura 4.3: Evolución de las Técnicas de Mantenimiento.

4.2 Técnicas de Mantenimiento

     Hoy en día existen infinidad de diferentes herramientas, técnicas, metodologías y filosofías de mantenimiento. Algunas de las más utilizadas entre otras pueden ser:

Mantenimiento Autónomo / Mantenimiento Productivo Total (TPM) Mejoramiento de la Confiabilidad Operacional (MCO) Mantenimiento Centrado en la Confiabilidad (RCM)// (MCC) Mantenimiento Basado en el Riesgo (MBR) Asset Integrity Mantenimiento Centrado en Confiabilidad en Reversa (MCC-R) Análisis Causa raíz (ACR) Análisis de Criticidad (AC) Optimización Costo Riesgo (OCR) Inspección Basada en Riesgo (RBI)(IBR)

     En efecto los métodos para mejorar la confiabilidad se podrían dividir en dos:

Métodos Proactivos: Buscan la mejora de la confiabilidad mediante la utilización de técnicas que permitan la paulatina eliminación de las fallas tanto crónicas como potenciales. Claros ejemplos son el Mantenimiento Centrado en la Confiabilidad y el Mantenimiento Productivo Total.

Métodos Reactivos: Buscan de una manera rápida y eficaz la solución de problemas cotidianos y evitar repetición de eventos mayores. En líneas

Page 7: El Mantenimiento Como Fuente de Rentabilidad

generales se trata de métodos sobre todo "post-morten". Actualmente su mejor exponente es el Análisis Causa Raíz.

        Nos referiremos a continuación muy brevemente a algunas de ellas:     

    

4.2.1 Mantenimiento Centrado en la Confiabilidad (RCM)

     Esta técnica surge a finales de los años sesenta como respuesta al incremento de costos y actividades del mantenimiento de las aeronaves (básicamente preventivo). En esta industria demuestra ser muy valioso, no sólo bajando los costos y actividades de mantenimiento, sino que además mejora los niveles de confiabilidad, disponibilidad y seguridad. Estos éxitos lo hicieron apetecible a otras industrias, como la militar, petrolera y de generación de electricidad.

     Esta técnica se basa en seleccionar mantenimiento sólo donde las consecuencias de las fallas así lo requieren, para esto se necesita hacer un estudio exhaustivo de todas las funciones, fallas, modos y consecuencias de las fallas, para luego decidir donde y que tipo de mantenimiento hacer. Establece un orden de prioridades: la seguridad y ambiente, producción, costos de reparación. Esto ha hecho que sea una herramienta valiosa en las industrias que requieren elevados niveles de seguridad, generando a cambio de los esfuerzos, buenos resultados.

     Bajo su enfoque tradicional resulta muy difícil de aplicar en grandes industrias debido a que no resuelve algunas interrogantes mayores como ¿Cuándo hacer el mantenimiento? y ¿Cómo generar una jerarquía de implantación?

     Es una técnica bastante analítica, lo cual ha traído problemas de implantación, debido a que a veces resulta difícil pasar del papel a la realidad. Conduciendo esto a fuertes perdidas de dinero y esfuerzos, degenerando al final en frustración de los equipos de trabajo. Se trata de una práctica recomendada por el Energy Power Research Institute (EPRI) para sistemas eléctricos.

    4.2.2 Mantenimiento Productivo Total (TPM) 

      Conocido por los grandes beneficios que ha obtenido en empresas manufactureras. Demostró su poder en Japón y ha comenzado a diseminarse a lo largo del mundo. Hace un gran esfuerzo en el trabajo en equipos. Se apoya fuertemente en limpieza y lubricación como fuentes que eliminan problemas

Page 8: El Mantenimiento Como Fuente de Rentabilidad

crónicos. Requiere de una profunda cultura de trabajo en equipo y sentido de propiedad de los bienes por parte de los trabajadores.

     De no poseer estos se requiere de un fuerte trabajo en el cambio cultural. Está muy ligado a los conceptos de mejoramiento continuo de la calidad y filosofías cero defectos. Difícil de aplicar en empresas de procesos, debido en muchos casos a lo ambiguo que resultan los conceptos de calidad y defectos, por otra parte el problema cultural puede entorpecer la implantación a niveles de frustración.

     Donde se ha logrado su implantación exitosa, se han tenido grandes logros respecto a seguridad, ambiente, confiabilidad, disponibilidad y costos de mantenimiento. Tampoco responde a las interrogantes ¿Cuándo hacer el mantenimiento? y ¿Cómo generar una jerarquía de implantación?

     4.2.3 Análisis Causa Raíz (ACR)

     Técnica poderosa que permite la solución de problemas, con enfoque a corto y mediano plazo. Usa técnicas de investigación bastante exhaustivas, con la intención de eliminar las causas de los problemas/fallas. Su valor no sólo reside en la eliminación de grandes eventos, sino en la eliminación de los eventos crónicos, que tienden a devorar los recursos de mantenimiento. Al eliminar paulatinamente los problemas crónicos y pequeños, este genera tiempo para análisis más profundos (RCM, por ejemplo).

    4.3 Mejoramiento de la Confiabilidad Operacional (MCO)

     El mejoramiento en la confiabilidad operacional desarrollada en U.K. con la intención de agrupar las mejores practicas de mantenimiento y operaciones con una orientación al negocio. Reconoce las limitaciones que el mantenimiento como función tiene para lograr una confiabilidad adecuada de las instalaciones.

La figura ilustra un poco mas la idea:

Page 9: El Mantenimiento Como Fuente de Rentabilidad

Figura 4.4: Confiabilidad Operacional.    

 

     Para mejorar los 4 sectores nombrados en la gráfica anterior, el MCO divide las técnicas de mejoramiento:

Diagnóstico Aquí mediante uso de técnicas asociadas al manejo de riesgo se cuantifican las oportunidades a corto plazo (reactivas) y mediano largo plazo (proactivas). Como resultado se obtiene una jerarquía de implementación. Aquí se hace uso de herramientas de análisis de criticidad y de oportunidades perdidas (a modo de ejemplo), estas permiten establecer las oportunidades de mejoramiento y que herramientas de control podrían usarse para capitalizar las oportunidades halladas

 

Control Aquí se usa el RCM+ (que combina algunas ventajas del TPM con el RCM) como técnica proactiva y el ACR como técnica reactiva, también se puede hacer uso del IBR para equipos estáticos. Como resultado se obtienen una serie de tareas de mantenimiento, operaciones, rediseño a ejecutar para mejorar el desempeño.

Estas técnicas de control por lo general son técnicas del tipo cualitativo y basadas en reglas fijas para la toma de decisión (por ejemplo: diagramas lógicos).

Page 10: El Mantenimiento Como Fuente de Rentabilidad

Optimización Aquí mediante el uso de herramientas avanzadas de cálculo costo riesgo se hallan los intervalos óptimos de mantenimiento, paradas de planta, inspecciones, etc.

     Se trata de técnicas del tipo numérico e involucran el modelado de los equipos y/o sistemas.

     Los resultados de implementar estas herramientas de esta manera son impresionantes en diversas industrias, logrando en algunos casos incluso la transformación de las empresas llevándolas a la implementación de Gerencia de Activos (Asset Management)

     Grandes resultados se han encontrado en Centrales Eléctricas con la implantación del Mantenimiento Centrado en la Confiabilidad y con el Análisis Causa Raíz. Un requisito que no debe dejarse de cumplir es el establecimiento previo de prioridades antes de la ejecución de ambas técnicas (simultaneas). Se han desarrollado herramientas como el análisis de criticidad y el análisis de oportunidades perdidas que pueden resolver dicha inquietud eficazmente.

     Por otra parte normalmente ambas técnicas generarán soluciones que podrían ser agrupadas en:

Cambios de diseño. Tareas preventivas. Tareas de Inspección (Detección y Predicción). Tareas correctivas.

     La respuesta a cuando ejecutar dichas tareas no es simple, y en muchos casos no puede ser fijada por la ley del dedo. Grandes beneficios económicos han sido reportados con el uso de software, que pueden calcular el punto de ejecución con menor costo/riesgo posible para las tareas anteriores.

4.4 Inspección Basada en Riesgo

     Un capitulo especial se abre con esta técnica, que establece patrones de inspección de equipos estáticos (calderas, líneas de transmisión, etc.) en función de su riesgo asociado, nuevas aproximaciones permiten usar software para tomar en cuenta también el estado actual del equipo, lo que desencadena una continua optimización por costo/riesgo y no una frecuencia de inspección fija. Los reportes económicos han sido cuantiosos, además de los beneficios por disponibilidad y producción. También es posible optimizar con este tipo de técnicas la frecuencia de búsqueda de fallas ocultas (pesquisa de fallas,

Page 11: El Mantenimiento Como Fuente de Rentabilidad

mantenimiento detectivo), dejándose de usar entonces formulas mágicas que no generan una frecuencia óptima por costo/riesgo, pudiéndose simular factores como probabilidad de éxito de la prueba y probabilidad de destrucción del equipo probado.

 

4.5 Modelos de Optimización del Mantenimiento

     Los modelos de optimización de mantenimiento se definen [3] como aquellos modelos matemáticos cuyo objetivo es encontrar el equilibrio óptimo entre los costos y  beneficios de éste, tomando en cuenta todo tipo de restricciones. En casi todos los casos, las ventajas del mantenimiento consisten en ahorros de costos en los cuales de otro modo se incurriría  (por ej, menor costo de fallas). Esta definición no incluye todos los modelos de investigación de operaciones aplicados en el mantenimiento. La programación de interrupciones de plantas de energía eléctrica para mantenimiento no es considerada, a menos que los aspectos de mantenimiento típicos (como el deterioro) sean modelados explícitamente. Se excluyen técnicas de dirección de proyecto, aunque algunas sean usadas en la planificación de cierre de instalaciones principales en la industria de proceso, cuando éstos carecen de los aspectos  costo-beneficio del mantenimiento.

     También se excluye los modelos de reemplazo de repuestos cuando éstos se enfocan principalmente  en el control de inventario.

     En general, los modelos de optimización de mantenimiento cubren cuatro aspectos:

1. Una descripción de un sistema técnico, su función y su importancia,2. Un modelado del deterioro del sistema en el tiempo y consecuencias

posibles para el sistema,3. Una descripción de la información disponible acerca del sistema y las

acciones dispuestas por la dirección4. Una función objetivo y una técnica de optimización que ayuda en el

descubrimiento del mejor equilibrio.

     En [4] los modelos se clasifican  según la modelación del deterioro en:

Modelos deterministicos Modelos estocásticos

o En Riesgoo Bajo Incertidumbre

Page 12: El Mantenimiento Como Fuente de Rentabilidad

     Ellos distinguen entre un sistema simple (componente unico) y un sistema complejo. La diferencia entre riesgo e incertidumbre es que en caso del riesgo se asume que una distribución de probabilidad del tiempo de falla está disponible, lo que no ocurre en el caso de la incertidumbre. Este por lo tanto incluye modelos con políticas adaptativas. Los métodos de optimización empleados incluyen programación lineal y no lineal, programación dinámica, métodos de decisión de Markov, técnicas de análisis de decisión, técnicas de búsqueda y metodologia heurística.

      Los modelos de optimización de mantenimiento proporcionan varios resultados. En primer lugar, las políticas pueden ser evaluadas y comparadas con respecto a las características de confiabilidad y rentabilidad. En segundo lugar, los resultados pueden ser obtenidos en la estructura de monitoreo(vigilancia) óptimas, como la existencia de una política optima en los límites de control. En tercer lugar, los modelos pueden asistir en el aspecto del tiempo: con que frecuencia inspeccionar o mantener. Todos estos resultados se refieren al concepto de mantenimiento; el último también se refiere adicionalmente  a la planificación del mantenimiento. Finalmente, los modelos también pueden ayudar en la determinación efectiva y eficiente de programas y planes,  tomando en cuenta todos los tipos de restricciones.

     Cuando la dirección de un departamento de mantenimiento  se encuentra en una condición de “mantenimiento reactivo”. Una de las mejores maneras de afrontar los inicios de la gestión para pasar a la condición de “mantenimiento planificado” es utilizando métodos sencillos de optimización de cadenas de valor como la teoría de restricciones y los modelos de colas La teoría de restricciones [5 ]se centra, básicamente, en la búsqueda del flujo perfecto de bienes o servicios a través de una cadena de valor balanceada, coordinada y sincronizada de estaciones de trabajo, logrando así, bajar los costos de operación, reducir los inventarios y aumentar las ventas.

     En el caso de un departamento de mantenimiento aplica todo lo anterior, ya que por un lado, la función mantenimiento no es otra cosa que un conjunto ordenado de actividades que agregan valor a un “servicio prestado”, desde una condición inicial conocida hasta una condición final que debe cumplir con los parámetros de calidad y seguridad establecidos o convenidos entre el ente encargado de agregar valor (Departamento de Mantenimiento) y el que lo recibe (clientes internos) en un tiempo determinado. Siendo el servicio prestado un bien intangible podemos tomar la “solicitud de trabajo” como elemento tangible del servicio en su condición inicial, la “orden de trabajo en proceso” como elemento tangible del servicio en tránsito y la “orden de trabajo culminada” como elemento tangible del servicio en su condición final.

Page 13: El Mantenimiento Como Fuente de Rentabilidad

     Por otro lado, en cuanto a los resultados esperados, podemos establecer una relación directa, ya que, los costos de operación son los gastos de mantenimiento, los inventarios estarían representados por las ordenes de trabajo (sin atender y en tránsito) y las ventas se pueden asociar directamente con el nivel de servicio (cantidad de solicitudes atendidas en una cantidad de tiempo determinada).

     Según la teoría de restricciones, el primer paso para la implantación es identificar los cuellos de botella (estaciones de servicio que determinan la velocidad del flujo en el sistema), luego se asignan las prioridades a los trabajos a ser ejecutados y finalmente se balancea el sistema. Este proceso es reiterativo, ya que al cambiar las condiciones externas o internas del sistema, van apareciendo nuevos cuellos de botella, lo que trae consigo nuevas acciones correctivas.

4.6  Relación entre Mantenimiento, Disponibilidad y Rentabilidad

Análisis de un caso particular 1

Relación entre el Mantenimiento Programado y las   salidas   forzadas, su impacto Económico en la elección de Metas de Disponibilidad [7].

     Las técnicas para estimar la Disponibilidad Optima Económica (OEA) de una unidad generadora  se ha enfocado en la comparación del costo "frontera" [8] de la unidad por el porcentaje de mejora de su valor marginal. Aunque ha sido normalmente aceptado que la cantidad de salidas no planeadas que una planta experimenta es, en parte, una función de la cantidad del mantenimiento programado, aquella relación no ha sido bien determinada. El estudio [7] explora aquella relación y examina su impacto económico en la elección de metas de disponibilidad.           

Análisis

     Usando una base de datos del Edison Electric Institute (un predecesor del actual GADS system administered by the North American Electric Reliability Council)  para grandes unidades carbón  de 1971 a1978, fue deducida una relación lineal entre la indisponibilidad planeada y la indisponibilidad no planeada. El coeficiente de correlación fue 0.895, informando de una fuerte relación. Como los datos tienen ahora más años y la disponibilidad de la industria ha mejorado considerablemente desde aquel tiempo, la constante en la ecuación ya no es acertada o verdadera. Sin embargo, se considera que la pendiente (slope) de la curva permanece cerca del original calculado en un valor de -0.5897 [6]. Esto significa que por cada punto porcentual adicional que aumentamos nuestras salidas programadas (el total  planeado, salidas por mantenimiento

Page 14: El Mantenimiento Como Fuente de Rentabilidad

y derating equivalent) las salidas forzadas y  derating equivalent decrecerán en 0.5897 puntos porcentuales.           

Maximizar Disponibilidad

     Como se puede ver fácilmente, a fin de maximizar disponibilidad usando la ecuación deducida de estos datos, se debería minimizar la cantidad de interrupciones programadas dado que, por cada punto porcentual que se reducen las interrupciones planeadas, se podría esperar un aumento de la disponibilidad de la unidad en 0.4103 puntos porcentuales (1-0.5897) (Obviamente este se aplica sólo dentro de los límites de los datos; fuera de aquellos límites la relación es probablemente no- lineal).

     Si maximizar disponibilidad fuera la tarea de una compañía de generación, entonces este modelo o estrategia sería óptimo. Sin embargo, no se esta simplemente encargados de maximizar la disponibilidad, sino mas bien de minimizar los costos de producir y distribuir energia para satisfacer la demanda de los clientes (o maximizar la ganancia de la compañia en caso de sistemas desregulados). Aunque maximizar disponibilidad ha usualmente sido considerado sinónimo de minimizar costos, el análisis siguiente demuestra que esta aseveración no es necesariamente válida.

Minimizar   Costos

     Ha sido siempre reconocido que una hora o día o un porcentaje de salida programada es normalmente mucho menos costoso (en términos de reeplazar el costo de la energía) que una hora o día o porcentaje de estos de salida forzada, ya que una compañía de generación intenta programar sus interrupciones durante períodos de demanda mínima (o de costos minimos para la empresa- otra forma de verlo es en que lo que se deja de ganar sea minimo). Durante muchos años algunas compañías de generación han estado calculando estos costos por hora, diariamente, semanalmente y estacionalmente. Un análisis de estos costos ha mostrado que para  grandes unidades  a carbón base-carga la razon"promedio" entre el costo “de salidas forzadas” y el “costo de salidas programadas” varía entre 3.0 y 4.5 (excepcionalmente durante condiciones “ajustadas" entre la oferta y demanda esta razón puede ser mucho más alta y la volatilidad puede ser mucho mayor durante peaks estacionales). También, esta razón de costos para unidades cíclicas y  unidades de punta es mucho mayor (al menos uno a dos órdenes de magnitud mayor).

     Por lo tanto, cuando se calcula el costo de interrupciones y se usa la razón mas baja  para grandes unidades de carbón, osea 3.0 según lo dicho anteriormente, en

Page 15: El Mantenimiento Como Fuente de Rentabilidad

efecto se cambia la pendiente de la ecuación (en términos monetarios, no porcentuales) en un factor de 3.0 de modo que  ahora: Pendiente(Slope) = 3.0 x -0.5897 =-1.7691

     Esto significa que por cada dólar que se "ahorra" reduciendo el mantenimiento programado, se puede esperar “gastar o pagar" un promedio de 1.7691 dólares extra por efecto de interrupciones forzadas incrementadas. Entonces si el objetivo es minimizar el costo total se debería obviamente aumentar la programación y salidas por mantenimiento a efectos de reducir nuestro costo de salidas no programadas, sin tener en cuenta el efecto que podría tener en nuestra disponibilidad.

 Nueva Medida

     Algunas compañías que han identificado el problema de utilizar el Factor de Disponibilidad Equivalente (EAF) para evaluar el rendimiento de la planta han comenzado a usar el término  Disponibilidad Comercial (CA), anteriormente analizado,  que intenta enfrentar el tema "ponderando o “pesando" las medidas de disponibilidad tradicionales por algún indicador de  costo marginal o costo de mercado. Entre tanto se mantienen estas grandes promesas de medir adecuadamente el  verdadero impacto económico de las interrupciones de una planta en el rendimiento financiero (rentabilidad) de la compañía, ninguna definición única ha sido adoptada por la industria y aún hay otras implicaciones que no han sido totalmente resueltas [9]y[10].

Análisis de un caso particular 2

Optimizar Costos de O&M para Maximizar Rentabilidad [11]

     A menudo en la proforma de una central eléctrica propuesta, los costos O&M son tratados como un commodity (activo); un número para ser reducido tanto como sea posible. Sin embargo, varias estudios de la industria han mostrado que hay una correlación directa entre un cambio en el gasto de O&M  en una central eléctrica dada y el resultante desempeño de aquella planta. El objetivo entonces, sería encontrar el nivel óptimo de gasto O&M  queminimice el coste TOTAL ($ diseño  + $ O&M  + $ desempeño) y que maximice la rentabilidad.

     Este proceso es  muy difícil porque la relación entre el gasto de O&M y el desempeño de la planta no esta bien determinado o cuantificado. Varios estudios  han mostrado que numerosos factores afectan esta relación, extendiéndose hacia atrás por todas partes a las decisiones iniciales de diseño (tecnología,

Page 16: El Mantenimiento Como Fuente de Rentabilidad

equipamiento, calidad y configuración, tipo de combustible y calidad, etc.) y  a través de la construcción, puesta en servicio y operaciones de ciclo de vida y mantenimiento, y decisiones de renovación o reemplazo.

     O&M es especialmente importante ya que como se mostrará, como el 75% de una variación en la confiabilidad de la planta es inflluido por la calidad de la O&M, sólo el 25% es inflluido por el diseño  o modo de operación. Todos estos factores interrrelacionados y la filosofia de O&M óptimo debe tomar en cuenta todas sus influencias, incluyendo  factores “near-term” como  ciclo de vida.

     Pero, no es suficiente determinar simplemente el mejor plan de O&M una vez que el diseño esta determinado. Debería haber un diálogo activo entre el equipo de diseño y el equipo de O&M para encontrar la mejor combinación que producirá el máxima beneficio para cualquier proyecto  en particular.

Antecedentes

     La Southern Company es una de las grandes  compañias privadas de servicios en los Estados Unidos. Establecido en Atlanta, Georgia,  tiene activos por sobre los 25 mil millones de dólares y opera aproximadamente 35.000 MW . En 1993, sus plantas generaron más de 144 billones de kWh de electricidad con un 78 %  de plantas de carbón , 17% nuclear, 14 %hidro y 1 %  gas y petroleo. Sus unidades de carbón y nucleares tienen una confiabilidad promedio de 96 % (1- Indice de Interrupción Forzado equivalente - EFOR), este valor experimentó un incremento de 19 puntos porcentuales desde 1976 en que era de 77%. (Figura 1a)., Muchos factores se combinaron para conseguir esta importante mejora [12], un aumento significativo en gastos de capital en O&M y mejoras . Muchas de las plantas más viejas experimentaron el mismo patron en distintos grados. Esto es, que al principio se disminuia el gasto en O&M, seguido por un  deterioro en la confiabilidad;  se disponia entonces el dinero para las mejoras de la planta e invertir en incrementar la confiabilidad, aunque amenudo los gastos se postergaban por años. Esto condujo a analistas de la Compañía en un esfuerzo por intentar cuantificar la relación gastos/confiabilidad de las centrales eléctricas de  la Southern Company.            

Unidad Beanchmarking “par” 

     En 1991, el North American Electric Reliability  Council (NERC) and Southern Electric Internacional (SEI) (el brazo desregulado de la  Southern Company) desarrolló una metodología para determinar según estadísticas las caracteristicas de diseño y operación, mas significativas, para comparar el desempeño de unidades de generación similares [13]           

Page 17: El Mantenimiento Como Fuente de Rentabilidad

     El proceso de la unidad “par” beanchmarking actualmente empleado en NERC/SEI join ventures es el resultado de una evolución de ideas asociadas con el objetivo común de predecir o pronosticar el desempeño de las unidades de generación eléctrica. Los sistemas de planificación de las organizaciones confían en estas predicciones, y la exactitud o la inexactitud de tales proyecciones pueden ahorrar  o bien costar  millones de dólares en utilidades.           

     Por años, el método utilizado para hacer estas proyecciones en el Southern electric system fue una especie de “fuzzy trending”, donde los datos históricos y la información acerca de los planes de mantenimiento futuros de la unidad, modificaciones, y nivel de la utilización estan todos considerados en la predicción del desempeño de la unidad en el futuro. En un paper presentado en 1988  en la American Power Conference titulado, "Trends in Generating Unit Performance and the 1990's Power System,"  la General Electric Company  desarrolló una ecuación para predecir la disponibilidad de unidades térmicas basada en la operación histórica y en la estructura o patron de gastos de mantenimiento. Este paper nos condujo a preguntarnos si una metodología con una base matemática estadística podría producir resultados más exactos que el método “fuzzy trending” usado en el pasado. La ecuación fue aplicada a datos a nivel de sistema  del Southern electric systemcon buenos resultados; sin embargo, los resultados eran erráticos cuando la ecuación fue aplicada a datos  a nivel de unidades. En un esfuerzo para conseguir datos mas adecuados a nivel de unidades, el siguiente paso fue desarrollar una nueva ecuación usando análisis de regresión y datos de  85 unidades termicas del Southern electric system  (25,000 MW). Más que asumir desde el comienzo que los factores principales que afectan la disponibilidad de la unidad eran ya conocidos, el proceso que fue desarrollado evaluaba el desempeño de la unidad  (EFOR) relativo a numerosas características de diseño y de operación  a fin de determinar los factores más importantes. La ecuación de regresión que resulta incluyó algunos años recientes  y variables operacionales anteriores (EFOR, factor de servicio, y  factor de interrupciones planeadas), algunas características de diseño (tipo de combustible, fabricante de la caldera, y fabricante de la turbina), y históricos desembolsos de O&M. Una comparación de la exactitud de las proyecciones hechas con el nuevo modelo matemático versus el viejo método  fuzzy trending  mostró que el modelo matemático fue superior. Aproximadamente el 80 % de las proyecciones del viejo método fueron altas, mientras que las proyecciones con el nuevo método fueron más cercanas a  valores reales tanto con estimaciones bajas como altas. Fue alentador que aun en sus inicios, el  modelo matemático apareció  superior al método previamente usado. (Fig.  b y c)

     Hasta este punto, la metodología resultó en una gran ecuación  que se aplicó a todas las unidades incluidas en la base de datos. Adicionalmente, el método

Page 18: El Mantenimiento Como Fuente de Rentabilidad

usado para incorporar variables nominales en el análisis de regresión, como tipo de combustible, fabricante de la caldera y  fabricante de la turbina fue un proceso engorroso. Fue decidido que el mismo, o aún mejor, los resultados podrían ser logrados subagrupando los datos por variables nominales importantes y aplicando el análisis de regresión a nivel de subgrupo. Este es el punto en cual la primera generación de unidades benchmarking pares se desarrolla. NERC y SEI firmaron un joint ventur para dar servicio a clientes en benchmarking de desempeño de sus unidades versus el de las unidades “par”. Los grupos “pares” para las unidades del cliente fueron desarrollados usando el análisis estadístico para determinar la característica que tenia el mayor impacto en el desempeño de la unidad, y dividiendo la base de datos en subgrupos basados en esta característica. El proceso fue seguido a niveles de subgrupo, con una división tras otra, hasta que ninguna característica restante fuera significativa para aquella division, o hasta que el número de unidades de par en la division cayera a un  nivel mínimo aceptable. El resultado divide las 1213 unidades térmicas de la industria en 19 grupos de  “unidades par” generales, con las características más significativas que son criticas, vintage, modo de operación, tamaño,  tipo de diseño, tipo de combustible y el fabricante de caldera (Fig d). El diseño y los datos operacionales de las unidades de clientes fueron usados para localizar cada una de las unidades de clientes dentro de los 19 grupos de par, y fueron proporcionadas distribuciones mostrando  el desempeño de las unidades del cliente con relación a aquel de sus pares.

Nuevas Perspectivas

     Cuando los resultados de los estudios anterior de benchmarking fueron examinados en profundidad,  nuevas relaciones fueron reveladas. Cuando los mejores exponentes (EFOR) en cada grupo par (10º percentil ) fueron comparados uno a otro, la función densidad de probabilidad  resultante tenía una anchura relativamente estrecha ( Fig e) en otras palabras, la diferencia entre el mejor exponente en el mejor grupo  par tenía un EFOR de sólo 5 puntos porcentuales más abajo que el mejor exponente en el peor grupo par (la selección del grupo par esta basada sólo en parámetros de diseño o modo de  operación).

     Si ahora comparamos a los exponentes más pobres uno a otro (90º percentil) en cada grupo  par, conseguimos la función de densidad de probabilidad mostrada en la Fig f. Finalmente, cuando sacamos el mejor exponente EFOR  del peor exponente EFOR en  cada grupo, podemos ver el rango o la variabilidad entre el mejor y el peor (Fig g). De esta curva, se puede ver que la diferencia entre los  mejores exponentes  y los peores con los mismos factores estadisticamente significativos de diseño/modo de operación es de aproximadamente 20 %. Por lo tanto, la percepción de los analístas  es que sólo

Page 19: El Mantenimiento Como Fuente de Rentabilidad

entre el  20 y 25% de la variación en la confiabilidad de unidades generadoras, en general puede ser explicado debido a diferencias en el diseño o  modo de operación. El 75-80% restante de la variación es debido a otros factores. Se estima que la mayoría de aquel impacto es debido a la calidad de los  programas de Operación y Mantenimiento de las unidades  (entrenamiento, procedimientos,  staffing lavels, herramientas, equipo, datos, etc.) así como los gastos de  O&M.

     La relación entre parámetros de diseño,  operación, y  calidad de O&M  debe ser bien entendida a fin de determinar la mejor combinación que conducirá al costo más bajo del producto. Las figuras h e  i muestran como esta interrelación afecta el costo total y la rentabilidad de las plantas.

(d)

Page 20: El Mantenimiento Como Fuente de Rentabilidad

(h)

Page 21: El Mantenimiento Como Fuente de Rentabilidad

(i)

 

Figura 4.5: Southern Company SystemFossil – Fired Units Reliability .

 

 

Page 22: El Mantenimiento Como Fuente de Rentabilidad

(a) (b)

 

(c) (e)

(f) (g)

Figura 4.6: Southern Company SystemFossil – Fired Units Reliability .

1. CONCEPTO DE CONFIABILIDAD

La confiabilidad es la "exactitud o precisión de un instrumento de medición". Existen distintos tipos de confiabilidad: la estabilidad a través del tiempo (medible a través de un diseño test-retest); la representatividad, que se refiere a la ausencia de variaciones en la capacidad del instrumento

para medir un mismo constructo en distintas subpoblaciones; y por último la equivalencia, que se aplica a las variables latentes, medidas a través de múltiples indicadores, y

que se puede poner a prueba mediante diversos métodos, incluyendo el llamado Alpha de Cronbach, split-half, y distintas formas de verificar la consistencia entre evaluadores.

La Confiabilidad del instrumento de medición constituye el criterio fundamental para evaluar su calidad y adecuación; no es un concepto unitario   que pueda ser descrito o definido con facilidad, lo que continué desventaja para el investigador novato. En esencia la confiabilidad de un instrumento es el grado de congruencia con la que mide el atributo que se supone evalúa. Si una balanza arroja un dato de 54.43k para el peso de una persona ni un minuto después da una lectura de 68.03k (descontando cualquier intromisión con el instrumento o el sujeto), debemos tener gran cautela al usarla porque la información que genera será poco fidedigna. Cuanto menor variación produzca un instrumento de mediciones

Page 23: El Mantenimiento Como Fuente de Rentabilidad

repetidas de un atributo, mayor será su confiabilidad de este modo, la confiabilidad puede equiparse con la estabilidad congruencia o confiabilidad de un instrumento de medición.

Otra forma de definir la confiabilidad es en términos de precisión es posible señalar que un instrumento es confiable si sus mediciones reflejan exactamente las mediciones “verdaderas” del atributo en estudios. La definición anterior vincula la confiabilidad con puntos señalados en nuestro comentario del error de medición. Intentaremos esclarecer aun más tal medición, para indicar que el instrumento es confiable y preciso en la medida en que no existan errores de medición en los resultados obtenidos. En otras palabras, una medición confiable es aquella que lleva al máximo el componente verdadero y el mínimo componente de error. Cuando mayor el error, mayor será la falta de confiabilidad.

Las dos formas de abordar el concepto de confiabilidad no son distintas, tal como podría parecer a simple vista. Los errores de medición son errores aleatorios, fuertemente variables. Los factores que influyen en una medición en un punto del tiempo tal vez no intervengan en otro momento o el mismo factor puede afectar en forma diferente a los sujetos. En resumen, los errores de medición que influyen en precisión de instrumento también alteran su congruencia. El ejemplo de la balanza de producía lecturas variables de peso no servirá para esclarecer el punto. Supongamos que el peso real del individuo es de 56.69k, pero que dos mediciones independientes generaron 54.42k y 68.03k. En términos de la ecuación presentaba en la sección anterior podemos expresar las mediciones de esta manera:CONSISTENCIA INTERNA Las escalas de tipo psicosocial se evalúan a veces tomando en cuenta su consistencia interna. En circunstancias óptimas las escalas hechas para medir un atributo están compuestas por un conjunto de puntos de indagación (reactivos) o de estudio de los cuales todos miden el atributo crítico y nada más. Es una escala que intenta medir la capacidad de decisión de las enfermeras, no seria adecuado incluir un punto que sea una medida mejor de la empatia que de la pericia en la toma de decisiones. Cabe señalar que un instrumento tiene congruencia u homogeneidad interna en la medida en que todas sus fracciones o sus sub.-secciones miden la misma característica.

En la actualidad la técnica de congruencia interna para estimar l confiabilidad de un instrumento tal vez se el método mas usado entre los investigadores. La razón de la gran aceptación de los métodos que describiremos a demás de la economía (solos e necesita una sesión de prueba) también incluyen el hecho que son las formas mejores de evaluar una de las fuentes mas importantes de error de cuantificación que es la recolección o muestreo de los puntos de indagación.

Uno de los métodos más antiguos para evaluar la congruencia interna es la técnica de división por mitades. En ella, los puntos que comprende la prueba se divide grupos se cuantifica y se da una puntuación independiente y los resultados cuantificados de las dos medias pruebas se utilizan para computar un coeficiente de correlación.  Para ilustrar este método, en la primera columna del cuadro siguiente se reproducen las puntuaciones ficticias de la primera aplicación de la escala de capacidad de liderazgo. En aras de la simplicidad señalaremos que el instrumento total comprende 20 planteamientos. Para computar un coeficiente de confiabilidad de dos mitades habrá de dividir los puntos de estudio en dos grupos de 10. En la práctica es posible un número grande de divisiones, si bien la técnica mas aceptada es usar y comprar los pares contra los nones. Por esa razón, una de las mitades comprende los punto 1,3 1,5 1,7 1,9 1,11 1,13 1,15 1,17 1,19, en tanto que el resto comprende la segunda mitad, esto es los pares. Las puntuaciones de las dos mitades del ejemplo se muestran en la segunda y tercera columnas del mismo cuadro. El coeficiente de correlación que describe la relación entre las dos mitades es una estimación de la congruencia interna de la escala de capacidad del liderazgo. Si los nones midieran el mismo atributo que los pares, en este caso el coeficiente de confiabilidad debe ser alto.

Numero delsujeto

Puntuación

Total

Puntuación de númerosimpares

Puntuación de NúmerosPares

12345678

5549783744505862

2826361823303033

2723421921202829

Page 24: El Mantenimiento Como Fuente de Rentabilidad

910

4867

2328

2539

r 0.67

El coeficiente de correlación computado con la técnica de dos mitades de algún atributo por medir tiende a generar una estimación sistemáticamente menor de la real en cuando a la confiabilidad de toda la escala. Al igual que los otros aspectos, las escalas de menos tamaño son más fidedignas o confiables que las más cortas. El coeficiente de correlación computado con base en los datos del cuadro es una estimación de confiabilidad para un instrumento de 10 puntos y no para uno de 20. A fin de superar esta dificultad se ha creado una formula para ajustar l coeficiente de correlación, de tal manera que arrojen una estimación de confiabilidad para toda la prueba. La ecuación de correlación que se conoce como la formula del calculo (profecía) de Spearman - Brown, es la siguiente

r    = 0.67r1  = 2r/ (1 + r)  

Done r es igual al coeficiente de correlación computado en dos mitades y r 1= confiabilidad estimada de toda la prueba. Por ejemplo la formula, la confiabilidad de la medición hipotética de 20 reactivo de la capacidad de liderazgo seria:

r1  = 2(0.67)/(1  +  0.67)  =  0.80

La técnica de dos mitades es fácil de usar y elimina muchos de los problemas de la técnica de prueba y nueva prueba. Sin embargo, la primera técnica tiene como desventajas que puede tenerse de diferentes estimaciones, de confiabilidad o uso de fracciones o mitades diferentes, esto es, siempre surgen diferencias y se usa una división entre pares y nombres, una división de primera y segunda mitad o cualquier otro método para dividir los puntos en dos grupos. Por tal razón, la técnica de dos mitades ha sido sustituida cada vez mas por formulas que compensan tal eficiencia.