Libro Materia

270
INTRODUCCION AL PROYECTO DE INGENIERIA Enrique Villamil García, Ingeniero Universidad Nacional de Buenos Aires Instituto Tecnológico de Buenos Aires Miguel J. García Hernández, Ph. D. Universidad Politécnica de Cataluña 1.Proceso de diseño 2. Planificación y Programación 3. Optimización 4.Innovación y Prospección 5.Fiabilidad 6.Mantenibilidad 7.Calidad 8.Manufacturabilidad 9.Documentación

Transcript of Libro Materia

Page 1: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA

Enrique Villamil García, Ingeniero Universidad Nacional de Buenos Aires Instituto Tecnológico de Buenos Aires

Miguel J. García Hernández, Ph. D.

Universidad Politécnica de Cataluña

1.Proceso de diseño

2. Planificación y Programación 3. Optimización

4.Innovación y Prospección 5.Fiabilidad 6.Mantenibilidad 7.Calidad 8.Manufacturabilidad 9.Documentación

Page 2: Libro Materia

DERECHOS RESERVADOS Buenos Aires, diciembre de 2003

II

Page 3: Libro Materia

1.Proceso de diseño 1

Metodología del desarrollo 3 Determinación de la necesidad 6 Definición de Producto (PDD) 7 Contenidos de una especificación 8 Conceptualización 10 Evaluación de viabilidad 11 Diseño preliminar 11 Diseño detallado 12 Despliegue de la función de calidad (QFD) 13 Ingeniería del valor 15 Diseño experimental 16 Diseño de experimentos (DOE) 17 Experimentos factoriales completos 19 Experimentación factorial fraccional 20 Análisis de Varianza (ANOVA) 21 Análisis modal de fallas y sus efectos (FMEA) 24 Ecodiseño 26 Factibilidad tecnológica 27 Internet como fuente de información 28 Responsabilidad legal 29 Ética profesional 30

2.Planificación y Programación 31

Planificación 32 Método del camino critico 33 Márgenes de las tareas 34 Técnica de evaluación, programación y revisión (PERT) 36 Estimación de tiempos y recursos 39 Estimación de la duración del proyecto 40 Simulación de Monte Carlo 41 Caminos semicríticos 42 Programación 43 Diagrama de Gantt 43 Asignación de recursos 45 Control del proyecto 46 Factibilidad económica 48 Costo objetivo 48 Mercado objetivo 50 Ciclo de vida 51 Precio de venta 52 Análisis de rentabilidad 55 Análisis de riesgo y sensibilidad 127

Page 4: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Índice

3.Optimización 59

Métodos de optimización 62 Métodos tabulares 63 Método del Calculo diferencial 64 Método de los Multiplicadores de Lagrange 65 Métodos de búsqueda de intervalo 68 Búsqueda uniforme 68 Búsqueda secuencial 68 Búsqueda dicotómica 70 Búsqueda de Fibonacci 70 Búsqueda por relación áurea 77 Método del gradiente 78 Método de Programación lineal 80 Aplicación de las herramientas de optimización de MATLAB 80

4.Innovación y Prospección 81

Algunas historias creativas 84La actitud creativa 85 La invención 87 La innovación 91 Diseño por evolución 92 La investigación y el desarrollo dentro de las empresas 93 Patentes 94 Técnicas creativas 96 Técnicas individuales 96 Técnicas grupales 98 Teoría de la invención aplicada a la solución de problemas (TRIZ) 99 Prospección Tecnológica 100 Técnica Delfos 101 Definición de escenarios 101 Técnicas de Regresión 101 Técnicas de Correlación 102 Curvas de crecimiento 102 Modelos teóricos de prospección 103

IV

Page 5: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Índice

5.Fiabilidad 105

Fiabilidad observada, estimada, extrapolada y prevista 106 Tasa de fallas 107 Fallas infantiles, accidentales y por envejecimiento 108 Requerimientos de tasa de fallas 108 Estimación de la tasa de fallas 109 Ensayos acelerados 111 Ley de Arrhenius 112 Ley de los aislantes 113 Modelo de Eyring 113 Expresión general de la fiabilidad 113 Fallas por solicitación 114 Tiempo medio entre fallas 114 Modelos de fallas: Fiabilidad extrapolada 115 Papel probabilístico. 116 Disponibilidad 117 Metas de fiabilidad aplicadas al diseño 118 Predicción de la fiabilidad 120 Modelo físico de fallas 120 Método de las redes 121 Simulación de Monte Carlo 122 Método del árbol de fallas 123 Método de las Cadenas de Markov 125 Sistema con carga compartida 126 Sistemas con reserva 127 Sistema de reserva con falla por conmutación 128 Sistemas con reserva y mantenibilidad 128 Método de las cargas 129 Técnicas para la mejora de la fiabilidad 130 Análisis de fiabilidad 131 Validación 132 Ensayos de fiabilidad 133 Ensayos de aceptación. Ensayos progresivos 134 Depuración del diseño y crecimiento de la fiabilidad 142 Modelos de crecimiento de la fiabilidad 142 Fiabilidad de componentes: Datos de los fabricantes 144 Fiabilidad de software 145 Métricas de complejidad 146 Estructuración y modularización de programas 147 Modelos de fiabilidad 148 Modelo de Shooman 149 Método de las cero fallas 150 Métodos de prueba 152

V

Page 6: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Índice

6.Mantenibilidad 153

Mantenimiento Proactivo 154 Mantenimiento preventivo 155 Mantenimiento preventivo con recambio 157 Mantenimiento preventivo imperfecto con recambio 160 Tiempo entre calibraciones 161 Tiempo entre acciones de conservación 161 Mantenimiento predictivo 162 Mantenimiento pasivo 163 Mantenimiento curativo 164 Mantenimiento Correctivo 164 Función de Mantenibilidad 165 Disponibilidad 166 Disponibilidad y fiabilidad de un equipo reparable 166 Disponibilidad y fiabilidad con reserva y mantenibilidad 168 Análisis de un sistema general 169 Tiempos de mantenimiento medio 170 Disponibilidad intrínsica, efectiva y operativa 171 Tiempo para reposición de servicio 172 Capacitación y experiencia 172 Diseño para la mantenibilidad 173 Serviciabilidad 174 Diagnosticabilidad 176 Estimación de la mantenibilidad 176

7.Calidad 177

Clasificación de los defectos 179 Calidad de proceso 180 Capacidad de Proceso 181 Control Estadístico de Proceso (SPC) 184 Grafica de control de calidad 185 Optimización de procesos 187 Función de pérdidas de Taguchi 189 Optimización del diseño 192 Diseño robusto 194 Capacidad de proceso vs. función de pérdidas 195 La iniciativa seis sigma 196 Verificación de la calidad 198 Control estadistico de calidad (SQC) 201 La función calidad en el diseño: Familia ISO 9000 204 Costos de Calidad 206 Mejoramiento de la calidad: Grafica de Pareto 207 Mejoramiento de la calidad: Diagrama de covariación 208 Mejoramiento de la calidad: Diagramas causa-efecto 208

VI

Page 7: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Índice

8.Manufacturabilidad 209

Sistemas de manufactura 210 Diseño orientado a la manufacturabilidad 211 Diseño para el ensamblado 213 Diseños para la soldadura 215 Diseño para la calibración 216 Diseño para la verificación 218 Diseño de tolerancias (DOT) 220 Asignación de tolerancias 221 Variabilidad debida al proceso 222 Variaciones operativas 224 Estabilidad. Fallas paramétricas 224 Técnicas para mejoramiento de la estabilidad 226 Tolerancia inicial: métodos de diseño 227 Método del peor caso: Intercambiabilidad Total 228 Método probabilístico : Intercambiabilidad Parcial 231 Método de selección por grupos 233 Método de ajuste por pasos 237 Método de ajuste continuo 240

9.Documentación 241

Transferencia de tecnología 241 El documento técnico 241 El cuaderno de Ingeniería 243 Ayudamemorias 244 La oferta de proyecto 244 Gestión de la documentación del proyecto 246 Orden de Cambio de Ingeniería 248 Documentación de equipo final 249 Presentación con transparencias 251

Índice alfabético 257

VII

Page 8: Libro Materia
Page 9: Libro Materia

Proceso de diseño Los científicos exploran lo que es.

Los ingenieros crean lo que nunca ha sido T. von Karman

El diseño de ingeniería se vincula con la concepción de sistemas, equipos, componentes o procesos con el fin de satisfacer una necesidad, y concluye con la documentación que define la forma de dar solución a dicha necesidad. Harrisberger lo define como “un acto creativo dedicado a seleccionar, combinar, convertir restringir, modificar, manipular y conformar ideas, resultados científicos y leyes físicas en productos o procesos útiles”. Un concepto relacionado, pero distinto, es el de proyecto de ingeniería. En las normas ISO el proyecto de ingeniería es definido como : “Un proceso único consistente en un conjunto de actividades coordinadas y controladas, con fechas establecidas de inicio y finalización, desarrolladas con el fin de alcanzar un objetivo para conformar requerimientos específicos, incluyendo restricciones de tiempo, costo y recursos”.

Claramente surge que para la ISO un proyecto de ingeniería requiere que las tareas involucradas y su desarrollo reúnan las siguientes condiciones:

• Ser únicas: para que exista un proyecto tiene que existir incerteza en alguna tarea. Esto implica que, por no haberla realizado antes, no se conocen todas las dificultades que puede presentar su ejecución. Lo de único no implica que nadie las haya ejecutado antes, sólo indica que los proyectistas o en la empresa no se cuenta con experiencia anterior.

• Ser complejas: si son triviales no hay incertezas, y al no plantear ninguna dificultad no se puede hablar de proyecto. Es decir, si la solución es directa y obvia, u obtenible por cálculo directo, no hay un real problema de ingeniería.

• Responder a una organización temporaria, con duración preestablecida en un plan, y cuya ejecución, coordinada por un líder del proyecto, esta sujeta a un control de progreso

• Tener objetivos vinculados a satisfacer las necesidades del cliente, o Algunos de estos objetivos podrán ser definidos en la ejecución, y alcanzados

luego progresivamente durante la realización o Tener como resultado la creación de un prototipo o varias unidades del producto o Generar la documentación que permita entender el funcionamiento del producto

objeto del proyecto y asegure su reproducción. • Satisfacer requerimientos específicos:

o De tiempo: Todos los productos tienen un ciclo de vida, y esto acota el tiempo de desarrollo. Si los objetivos se vuelven inalcanzables, en términos de tiempo compatibles con el ciclo de vida del producto, el proyecto pierde sentido.

o De presupuesto, al cual deberá ajustarse el costo de desarrollo o De beneficio, lo cual es imprescindible para que la empresa sea sustentable en

el tiempo, disponga de los recursos necesarios para la permanente mejora y pueda contribuir en el futuro a dar una mayor satisfacción a sus clientes

o De recursos, buscando soluciones que:

Page 10: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño 2

• sean manufacturables, es decir, que estén basadas en procesos y tecnologías cuyo dominio se posee o se puede acceder

• aprovechen los conocimientos científicos y los avances tecnológicos • sean óptimas en cuanto al aprovechamiento y uso de recursos

En general el proceso de diseño tendrá muchas entradas y a lo sumo dos salidas: La

documentación y un prototipo. Son entradas del diseño las exigencias y regulaciones aplicables al producto, las cuales deben estar documentadas desde su inicio. Requerimientos inconsistentes, ambiguos, o incompletos deben ser resueltos con los responsables de tales requerimientos antes del inicio del proyecto. Asimismo, deben ser parte de las entradas del diseño los objetivos de fiabilidad, durabilidad y mantenibilidad planteados para el producto, y los criterios de aceptación.

La documentación es la salida del diseño más importante. Debe definir la configuración del equipo y los elementos necesarios para su fabricación, estableciendo cuales características son cruciales para el buen funcionamiento del producto, en cuanto a su operación, almacenamiento, manipuleo, mantenimiento y atender además la disposición final. Debe estar expresada en términos que permitan la verificación y validación contra los requerimientos de entrada.

La salida debe resultar de un proceso de optimización del diseño, buscando simplificar, mejorar, innovar, y reducir desperdicios, valiéndose de herramientas específicas tales como,

• La función de despliegue de la calidad (QFD), como base para fijar criterios y metas para el producto y el propio desarrollo

• Análisis de los modos de falla ( FMEAs ) de los elementos seleccionados, buscando hallar sus causas y efectos, con el fin de definir y eliminar posibles modos de falla críticos

• Análisis del árbol de fallas (FTA), método usado para identificar los elementos causantes de posibles fallas criticas

• Diseño de experimentos,(DOE), como medio de lograr un mayor conocimiento y optimizar el diseño y los procesos de manufactura

• Análisis de ingeniería del valor (VE), para evitar que las soluciones incluyan elementos innecesarios

• Análisis de tolerancias (DOT), para obtener altos rendimientos de producción

NecesidadDefinición

deproducto

Diseño deproducto

Verificaciónde diseño

Validacióndel

diseño

entradas deldiseño

salidas deldiseño

Requerimientos Diseñosi

No

Conocimientos

Validación

Proceso de diseño

Entradas Salidas

• Análisis de costo/desempeño/riesgo

Fig. 1

Al final de cada paso del diseño se debe comprobar qucomprometidos en esa etapa han sido logrados, figura 1. Una vez compuna verificación del diseño en su totalidad para comprobar que saestablecidos en las entradas. Esta etapa puede incluir actividades tales co

• Realización de cálculos alternativos • Comparaciones entre el nuevo diseño y diseños anteriores • Realización de pruebas y demostraciones • Revisiones a la documentación previo a su distribución

Pasada la verificación, sigue el proceso de validación del comprobar que el producto satisface la necesidad para la que es propuest

2

Fig.2

e los objetivos parciales letado el diseño, se realiza tisface los requerimientos mo:

diseño, cuya finalidad es o, figura 2.

Page 11: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 3

La validación se efectúa sobre el producto final y bajo condiciones definidas de operación, o sea, sobre un equipo que es realizado con el mismo herramental y procesos con que será luego fabricado, y como paso previo a la entrada en producción. Si surgen incumplimientos, estos deberán documentarse y definirse las acciones correctivas y preventivas para su cura.

Para dar por concluido el proyecto no es suficiente haber verificado y validado la unidad sujeto del proyecto sobre uno o varios prototipos; también debe verificarse y validarse la documentación del diseño, analizando su complitud.

Para la solución de los problemas de ingeniería se han desarrollado a través del tiempo diferentes aproximaciones. Muchas de ellas son solo pequeñas variaciones alrededor de una forma de pensar, o paradigma. Un paradigma es una manera de resolver los problemas. La forma en que se conciben las soluciones no sólo cambia porque se deben tomar en cuenta nuevos avances científicos y tecnológicos, sino también porque el comportamiento de la sociedad es distinto y demanda soluciones no sólo mejores sino también diferentes. Esto deriva en cambios paradigmáticos, que el proyectista debe enfrentar en la elaboración de la solución. Algunos de los cambios que los nuevos diseños deben enfrentar han sido muy bien puntualizados por la revista

lectronic Design, una década atrás, en un nota editorial: E

• Diseño con partes de alta complejidad. Los proyectitas no pueden desarrollar más sus productos sobre la base de algunas muestras, y apoyándose básicamente en notas de aplicación, debido a las pequeñas sutilezas que presentan los dispositivos VLSI. Esto vuelve cada vez más necesario el soporte por parte de los fabricantes de componentes, convirtiéndose esto en una razón de peso para la adopción de un componente sobre otro

• Diseño para la manufacturabilidad. Se trata de lograr que el lanzamiento al mercado sea lo más temprano posible, obligando a que los tiempos entre la iniciación del diseño y el inicio de la manufactura sean cada vez más breves, buscando reducir las interacciones entre la etapa de diseño y la de manufactura.

• Tiempo para la comercialización. Con mercados cada vez más competitivos, y más innovación, los ciclos de vida de los productos son cada vez más cortos. Esto también obliga a que los tiempos de diseño deban ser cada vez menores.

• Calidad. La búsqueda de la satisfacción del cliente debe ser la consideración primaria del diseño

• Limitación a pocos proveedores. Por mucho tiempo prevaleció el concepto de que era necesario disponer de una segunda fuente para la provisión de partes y componentes. Cuando se opera con componentes innovadores, esto ya no es posible: es más importante estrechar la relación cliente-proveedor, y trabajar con políticas colaborativas entre ambos.

Metodología de desarrollo Desde siempre se ha reconocido la necesidad de seguir una metodología para lograr una exitosa ejecución del desarrollo, y a ese fin se han propuesto diversos modelos. Son muchas las organizaciones, asociaciones empresariales, y grandes corporaciones que han propuesto y aplican estos modelos para el desarrollo de sus productos

Reconocimiento de Definición de Diseño Desarrollo de Validación Desarrollo de Preserie de Validación de

lb

una necesidad Producto conceptual prototipo del diseño manufactura Producción manufactura

2 a 5 años

Fig. 3

Los primeros modelos de desarrollo diferenciaban claramente dos etapas: Una abocada a a ingeniería del producto y otra al desarrollo de la manufactura, tratándose ambas etapas con astante independencia entre si, figura 3.

3

Page 12: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño 4

Estos modelos, como el propuesto por el Consejo de Ingenieros Alemanes (VDI), responden a un esquema natural: entender el problema, definir una solución conceptual, subdividir el problema en pequeños subproblemas, dar las soluciones de detalle y finalmente integrar el conjunto. Su mayor desventaja es que por principio son reactivos: En cada etapa se verifica el producto y se analiza su conformidad en función de la tarea a desarrollar. Esto lleva a una detección tardía de deficiencias, a efectuar rediseños, y a un mayor esfuerzo global y demoras.

Análisis de caso: Una variante del método, aplicada por Siemens en el desarrollo de equipos electromédicos, es el esquema de la figura 4 (Revista Siemens XLIII (1975) No 5).

En este esquema de diseño el proceso de desarrollo se efectúa en dos fases. Al final del desarrollo preliminar se obtiene un prototipo de laboratorio (1) con el que se hacen luego los ensayos médicos (3) a fin de determinar las especificaciones del producto (13) a las cuales deberá ajustarse el desarrollo del producto (2). La comprobación del prototipo (4) se efectúa al final del desarrollo del producto. Se verifica la seguridad después de ser sometido a carga, haciendo una comprobación de la carga de los distintos elementos, y un análisis de aspectos relacionados con la manufactura (procesos y controles), y el mantenimiento.

Después de superar las pruebas realizadas sobre el prototipo se terminan los planos de construcción y la documentación de fabricación. La fabricación comienza con la preparación de los trabajos (10). Al mismo tiempo se obtienen los certificados de prueba legalmente exigidos, y se definen los procesos y planes de pruebas, elaborándose los verificadores automáticos correspondientes (6). Antes de iniciar la fabricación (11) se lleva a cabo una comprobación de los componentes (7), y durante la fabricación se hacen pruebas de subconjuntos (8). Concluida la fabricación tiene lugar la verificación final (9). En esta fase tiene lugar también la elaboración del manual técnico del usuario (14), el manual de servicio técnico (15), la documentación técnica de venta (16) y la documentación para la instalación (17).

1

4 5 6 7 8 9

10 11

12 13 14 15 16 17

2

3

Desarrollo

Verificacion

Fabricacion

Ventas

tiempo

inicio del desarrollo Entrega a fabricacion Equipo suministrable

Fig. 4

Los modelos proactivos, como el propuesto por la Asociación Alemana de la Industria Automotriz ( VDA ), se basan en los nuevos conceptos de ingeniería concurrente o ingeniería simultanea. Estos modelos dan participación a todos los sectores involucrados desde las fases más tempranas del ciclo de desarrollo, evitando posteriores cambios debidos a desadaptación u omisiones. Esto se refuerza con oportunas etapas de revisión del diseño, con participación de todos los sectores, cuya finalidad es ver que las metas del cliente, requerimientos del usuario final y necesidades de las futuras etapas del ciclo de vida del producto (compras, manufactura, despacho, instalación, reparación, etc.), están siendo contempladas en el diseño. Es función de la revisión del diseño:

• Analizar la descripción del producto conforme al documento de diseño • Rever el documento del diseño bajo la óptica de cada especialista • Evaluar si la experiencia de la empresa ha sido volcada al diseño, siguiendo un listado de

verificaciones especialmente preparado • Verificar que se hayan propuesto las mejores soluciones para satisfacer las metas • Verificar que se cumplen los supuestos económicos y las fechas comprometidas

Conceptualmente, el modelo de la VDA gira alrededor del aseguramiento de la calidad,

figura 5, y con especial énfasis en la manufactura, buscando mejorar la curva de aprendizaje, de modo que desde su lanzamiento el producto satisfaga todas las expectativas del cliente. En los productos de producción seriada, la optimización y puesta a punto de los procesos de fabricación es una de las tareas más importantes dentro del desarrollo del producto.

4

Page 13: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 5

1 .R

eque

rimie

ntos

del

clie

nte

2 .Le

gisl

acio

nes 3

.Idea

de

Prod

ucto

4.A

nális

is d

e m

erca

do y

com

pete

ncia

5.M

eta

de c

alid

ad 6

.Est

udio

s de

inge

nier

ía d

e pr

oduc

to 7

.Esc

ala

de

prod

ucci

ón. P

reci

o de

ven

ta y

Cos

teo

8 .Pl

anea

mie

nto

de ti

empo

s 9.P

lan

de A

segu

ram

ient

o de

la c

alid

ad 1

0 . D

iseñ

o 11

.Dis

eño

de e

stilo

12 .

Tent

ativ

a de

esp

ecifi

caci

ón

13.P

lane

amie

nto

de ti

empo

s 14 .

Ant

icip

o de

l pla

n de

equ

ipam

ient

o pa

ra fa

bric

ació

n y

cont

rol 1

6 .M

emor

ia T

écni

ca d

el P

rodu

cto

17.P

lano

s 18 .

Des

arro

llo p

roto

tipo

19.P

lan

de

aseg

uram

ient

o de

la c

alid

ad 2

0 .Se

lecc

ión

de P

rove

edor

es 2

1 .A

cept

ació

n pr

otot

ipo

22.L

ista

do d

e pa

rtes.

Arr

anqu

e fa

bric

ació

n de

par

tes a

med

ida 2

2 . C

onso

lidac

ión

Esp

ecifi

caci

ón

23.E

valu

ació

n de

la c

apac

idad

de

prov

eedo

res 2

4 .Pl

an d

e co

ntro

les y

del

equ

ipam

ient

o de

con

trol 2

5 .Pl

an d

el e

quip

amie

nto

de p

rodu

cció

n 26

.Del

inea

mie

nto

de la

líne

a se

rie

27.A

nális

is d

e la

cap

acid

ad d

e m

aqui

nas y

pro

ceso

s 28 .

Sele

cció

n fin

al d

e pr

ovee

dore

s 29 .

Res

ulta

dos p

roto

tipo

desa

rrol

lado

30 .

Prue

ba d

e la

líne

a 3

1.C

apac

itaci

ón d

el p

erso

nal

32.D

elin

eam

ient

o pl

anes

de

mue

stre

o co

mpo

nent

es 3

3 . D

elin

eam

ient

o pl

anes

de

mue

stre

o de

pro

ducc

ión

34.A

cept

ació

n eq

uipo

s de

cont

rol 3

5 .A

cept

ació

n eq

uipo

s pro

ducc

ión

36.A

cept

ació

n de

par

tes

prod

ucci

ón p

iloto

37 .

Con

solid

ació

n do

cum

enta

ción

38 .

Prue

ba d

e pr

oduc

ción

serie

39 .

Prim

er m

uest

reo

de p

arte

s de

prov

eedo

res 4

0 .Li

bera

ción

par

tes

prov

isió

n in

tern

a 41

.Ser

ie P

iloto

42 .

Estim

ació

n m

etas

cal

idad

43 .

Man

ufac

tura

, apr

ovis

iona

mie

nto

y co

ntro

l com

pone

ntes

seria

dos 4

4 .Pr

oduc

ción

seria

da 4

5 .R

egis

tro d

e da

tos d

e pr

oduc

ción

en

gran

esc

ala

A. O

bjet

ivos

B. M

etas

del

sist

ema

C. P

ropu

esta

esp

ecifi

caci

ón D

. Esp

ecifi

caci

ón c

onso

lidad

a E

. Lib

erac

ión

para

apr

ovis

iona

mie

nto

de m

aqui

nas d

e pr

oduc

ción

F. L

iber

ació

n pr

oduc

ción

pilo

to G

. Lib

erac

ión

para

el c

omie

nzo

de la

pro

ducc

ión

seri

ada

H. L

iber

ació

n pa

ra e

l lan

zam

ient

o de

pro

ducc

ión

DR

A

DR

DR

DR

CD

EB

FG

H

DR

: R

evis

ion

es d

el d

iseñ

o

114

13

12

11

10

9

8

3 4

765

215

17

22

21

201918

16

23

36

37

34

32

27

30

29

35

33

28

31

2625

24

38

44

4342

41

40

39

45

Revis

ion

dis

oR

evis

ion

dis

oR

evis

ion

dis

o

FM

EA

de

dis

oF

ME

A d

e p

roceso

Co

ntr

ol

esta

dis

tico

de p

roceso

investi

gacio

n c

ap

acid

ad

de p

roceso

Estu

dio

de m

an

ufa

ctu

rab

ilid

ad

QD

F

Dis

o d

e e

xp

eri

me

nto

s d

e P

roceso

Dis

o d

e e

xp

eri

men

tos d

e P

rod

ucto In

gen

ieri

a c

on

cu

rren

te

An

alisis

arb

ol d

e f

allas

Defi

nic

ion

y a

cti

vid

ad

es d

e d

iseñ

oE

tap

a d

esarr

ollo

y p

lan

eam

ien

to p

rod

ucio

nE

tap

a d

e a

pro

vis

ion

am

ien

to y

pro

du

ccio

n p

ilo

toP

rod

uccio

nseri

ad

a

Co

ord

inacio

n d

e D

esarr

oll

oC

oo

rdin

acio

n d

e P

rod

uc

cio

n

Gru

po

de t

rab

ajo

Fig

.5

5

Page 14: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño 6

Determinación de la necesidad El proceso de diseño parte del reconocimiento de una necesidad insatisfecha, mal satisfecha, o susceptible de mejorar en algún sentido. Las necesidades resultan o surgen por motivaciones muy variadas:

• Investigaciones de mercado, que muestran que los productos actuales han quedado obsoletos, o fuera de competencia

• Aparición de nuevas legislaciones, normativas o demandas. Por ejemplo, Brasil emitió en el 2001 una normativa que obligo a partir del 2003 a que todos los televisores comercializados en dicho país tengan incorporado el V-chip ( violence-chip). El V-chip permite bloquear electrónicamente aquellos programas cuyos contenidos los adultos consideren inapropiados para los menores, por tener escenas de violencia, sexo o lenguaje obsceno. Para hacer esto posible, cada emisora además debe emitir una calificación del contenido en forma codificada durante el intervalo de borrado vertical.

• Complementos de productos, por análisis de un mercado ya existente, desarrollado con anterioridad, y sobre el que se ven posibilidades de un mayor desarrollo futuro. Por ejemplo, las posibilidades de integración que surgen para el desarrollo de redes personales (PAN, personal area network ) debidas al empleo del protocolo Bluetooth para la interconexión mediante medio inalámbrico de computadoras, teléfonos, impresoras, y periféricos de baja potencia, como las PDA ( Personal Digital Assistant ).

• Nuevas posibilidades que surgen durante la ejecución de otro proyecto • Pedidos formales, donde el cliente formula directamente el requerimiento • Pedidos informales, en donde un potencial cliente sugiere que una determinada

propuesta, en un área de interés particular, tendría gran aceptación o grandes posibilidades futuras. Por ejemplo las necesidades que surgen a consecuencia del cambio en el valor de la tensión de batería de los automóviles, debido a que esta previsto en un futuro próximo pasar de los +12V actuales a +42V.

• Nichos de mercado insatisfechos de productos existentes. Por ejemplo algunos fabricantes de monitores de PC han pensado que el formato del monitor estándar es poco adecuado para el diseño de documentos, entreviendo en ello una necesidad no atendida. Para este tipo de aplicación el monitor debería contener una pagina de documento completa por pantalla, y tener además la posibilidad de rotar 180º para tomar el formato tradicional. Otra solución innovadora, dentro de este segmento de mercado ha sido el desarrollo del monitor doble; con este es posible trabajar simultáneamente con dos documentos a pantalla plena, en forma independiente, y desde una sola PC.

En resumen, el proceso de diseño puede ser iniciado basándose en una idea para una solución a una necesidad existente, y aún no atendida, o en ideas pensadas para solucionar necesidades futuras. En muchos casos, la necesidad la “descubre” el departamento de marketing de la propia organización, o es el resultado de prospecciones realizadas por empresas especializadas. El departamento de marketing debe colaborar estrechamente con el sector de desarrollo con el fin de reconocer tendencias y discontinuidades tecnológicas que se constituyan en nuevas oportunidades; es además el encargado de evaluar el valor que el cliente asigna a las nuevas características que ingeniería le puede conferir al producto, como consecuencia de los avances en la tecnología, y que sirven de base para determinar los cambios que deben introducirse.

Debe tenerse presente que un mismo producto puede ser definido de muchos modos, y cada uno de ellos responde a una estrategia que cada empresa se impone para posicionarse mejor en el mercado. Consideremos por ejemplo el caso de una impresora por chorro de tinta. Cuando se apunta al mercado masivo, muy sensible al precio de adquisición, el producto puede ser definido de modo que tenga bajo precio de venta inicial, compensando esto con un mayor costo del cartucho. En este caso el cartucho debe ser concebido de modo que no permita la recarga, es decir pensado para usar y desechar: El negocio no es la venta de impresoras, sino de los cartuchos.

6

Page 15: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 7

Definición de Producto (PDD)

Los proyectos arrancan y terminan siempre con documentos. El primero de estos documentos, y además elemento clave de cualquier proyecto, es el que define los requerimientos del producto. El último es la memoria del proyecto, documentación probatoria que sirve para validar los cálculos y decisiones asumidas en el desarrollo del producto. Para no arribar a la solución perfecta para el problema equivocado, el primer paso de cualquier proyecto debe ser entonces asegurarse de que el problema quede bien definido en un documento. La documentación para el desarrollo del proyecto podrá ser algo tan simple como una hoja en la cual se describen las características esenciales que requiere el producto, o ser algo tan complejo como todo un libro o varios tomos, en los que se declara exactamente las condiciones a cumplir, incluyendo los métodos de verificación. Esto significa definir a nivel de detalle características a cumplir, interfaces, detalles del hardware y del software, y los métodos de verificación, figura 6.

efucehFv

Doc

umen

taci

on p

ara

el d

esar

rollo

Especificacion de ingenieria

Definicion de Producto

Requerimientos del productoRequerimientos funcionales

Especifica y describe los modulos, placaso subsistemas, que funcion cumplen y comose interrelacionan (protocolos y conectores).

Especifica el software de cada modulo y suinterrelacion, incluyendo diagramas de

flujo o de estado.

Metodos de ensayos sobre modulos y sistema

Informes de ensayo

Especificaciones de puesta en marcha, operacion ymantenimiento

elac(Phd

ecc

Fig.6

Los requerimientos sirven para la definición de producto, describiendo brevemente lo que l producto es; responden básicamente a la cuestión: ¿para que sirve? Los requerimientos ncionales definen lo que el producto debe hacer, y las especificaciones de ingeniería describen

omo se debe lograr satisfacer esos requerimientos; es decir condicionan el ¿como hacerlo? Las specificaciones de hardware y de software describen el detalle de como debe ser diseñado el ard y el soft, incluidas las especificaciones referidas a la instalación, operación y mantenimiento. inalmente las especificaciones de ensayo describen como ha de ser probado el sistema para erificar que opera correctamente, los informes a emitir y certificaciones a obtener.

Validacion

Cuando se trata de productos orientados a clientes específicos resulta difícil cambiar una specificación, como es el caso de los OEM (original equipment manufacturer ). En estos casos, s características del producto son establecidas en un documento que es definido conjuntamente

on el cliente, conformando lo que se denomina el Documento de Definición de Producto o PDD roduct Definition Document ). Este documento llega a tener un gran nivel de detalle, tanto del

ard como del soft. Por ejemplo, la entrada de un microcontrolador, que sensa el accionamiento e una microllave de fin de carrera, puede estar definida con el siguiente detalle:

speon lien

Pin Descripción Detalles

Cuando se trata de productos nuevos, o productos para el mercado abierto, las

cificaciones a cumplir normalmente marcan el encuadre: Solo son exigencias de tipo general, los lineamientos generales que debe satisfacer el producto, básicamente aquellos que el te puede apreciar y valorar. En tal caso, muchas de las características del producto son

2/12..... .....................

3/12Entrada, llave de traba

Multiplexada internamente, 1.8k de resistencia de pull-up,protección frente a conexión erróneaNivel ALTO 0.8Ub a Ub, nivel BAJO 0V a 0.2UbActiva: Entrada a masa

4/12 ................. .........................

7

Page 16: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño 8

definidas durante el desarrollo. Para el desarrollo se parte de un Documento de Requerimiento de Mercado o MRD (Market Requirement Document ), en el cual se incluyen aspectos referidos a:

• interoperabilidad • prestación • robustez frente a interferencias • fiabilidad • escalabilidad • capacidad de diagnostico y mantenimiento • facilidad de implementación • facilidades para la instalación y puesta en marcha

y en todos los casos, además, deberán incluirse los requerimiento o regulaciones propias del

ercado y del país al que esta orientado el producto. m

Contenidos de una especificación Establecer las especificaciones de diseño es una de las actividades más complicadas, difíciles e importantes, pues ellas determinan la capacidad final del producto y su costo. Deben fijarse en las etapas más tempranas del proceso de diseño, basándose en la definición de producto (PDD), o el MRD, y deben ser lo más específicas posibles. Son imprescindibles para el manejo y control del diseño, y las mismas deben contemplar gran diversidad de aspectos, tales como: •

• •

Condiciones ambientales: temperatura, presión, humedad, presencia de polvo o agresivos químicos, resistencia a insectos, ruidos, vibración, y tipo de trato previsto por el usuario. Estas características deben ser vistas como la carga posible a la que puede estar sometido el producto dentro de su ciclo de vida. Es decir, las exigencias pueden darse sólo en manufactura, en transporte, en exhibiciones, en almacenamiento, o en el uso. Características operativas y funcionales, en las cuales se define el fin para el cual va a servir el producto, con detalle de los modos de operación del producto básico, y las previsiones para futuras opciones. Se especifican asimismo los factores que sirven para valorar la prestación del producto. Interfase con el operador, donde se describe la interacción del operador con el producto Características estandarizadas, en las cuales se contempla la compatibilidad con otros equipos del mercado, y las normas nacionales e internacionales que debe satisfacer Requerimientos de compatibilidad electromagnética ( EMI/EMC, Electromagnetic interference/Electromagnetic compatibility ), conforme a regulaciones de la FCC o de la CE. Aprobaciones de seguridad por parte de laboratorios externos para certificar que se satisfacen los requerimientos de alguna norma específica, como ser las normas emitidas por el UL (Underwriter Laboratories) , o el Comité Electrotécnico Internacional (IEC ) Tiempo operativo o ciclo de trabajo: tiempo en el que se supone que el equipo va a estar en servicio, estimado en horas diarias. Mantenimiento: concepción del equipo en cuanto a su mantenimiento: ¿será reparable o descartable? Si fuera reparable, ¿qué consideraciones deberán tenerse en cuenta en el diseño? ¿Que repuestos deben asegurarse y por cuanto tiempo? Meta de Costo, sea dentro del ciclo de vida o sólo de manufactura, o bajo el período de garantía Competencia, debe definirse un posicionado en tal sentido, de modo tener en claro las diferencias desde el comienzo del diseño

8

Page 17: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 9

• • • • •

• • • •

• •

• •

Despacho al mercado: tipo de embalaje, empaquetadura, etc. de modo tal que de existir mecanismos o partes que puedan verse dañados en el transporte, las mismas se encuentren protegidas o bloqueadas Cantidad: volumen de fabricación esperado, lo cual hará convenientes ciertas técnicas de diseño sobre otras, y será además útil para definir procesos y herramental especial para la fabricación. Instalaciones especiales para su manufactura, en función de las cuales se determinará la conveniencia de subcontratar partes o todo a terceros, haciendo que el proyecto sea menos capital intensivo y reduciendo los costos fijos Tamaño y forma, básicamente buscando que no haya restricciones condicionantes Peso y modo de fijación Apariencia y terminación: estética del producto. Tiempo de vida: estimación del tiempo en el que va a permanecer en el mercado. Normas o regulaciones que debe satisfacer. Los productos, en relación a las normas, pueden clasificarse en : • productos regulados, como ser equipos electromédicos, con implicancias ambientales, o

con posibilidad de afectar a terceros. En general estos productos están sujetos al cumplimiento de leyes y regulaciones gubernamentales

• productos no regulados: es la condición de la mayoría de los productos dedicados al área de entretenimiento

Aspectos ergonómicos, vinculados con su interacción con las personas, disposición y tipos de controles y visualizaciones; cuplas y esfuerzos mecánicos mínimos y máximos de accionamiento, etc. Caracterización del cliente o usuario: preferencias, prejuicios, etc. Calidad y fiabilidad que debe alcanzarse para asegurar su inserción en el mercado. Condiciones de almacenamiento, para evitar efectos de desgaste o corrosión prematura. Metas de tiempo, sea para el desarrollo de algunas de sus partes o fases, o para el total del proyecto, debido a que su lanzamiento puede estar ligado a un evento especial. Exigencias de ensayo: deben ser conocidas las características que deberán evaluarse sobre el producto terminado a la salida de fábrica, cuales hacerse sobre el total de las unidades y cuales solo sobre algunas muestras. Seguridad: relacionado con la probabilidad de que por falla el equipo pueda causar daños que sean fuente de futuro litigios. Restricciones internas, que puedan existir dentro de la empresa y prohíban el uso de ciertos materiales, o el uso de ciertos procesos de manufactura, o métodos de control, etc. Restricciones de mercado, que tomen en cuenta restricciones o particularidades de uso. Existencia de patentes que limiten de algún modo las soluciones, u obliguen a obtener y pagar licencias. Implicaciones políticas y sociales que pudieran afectarlo. Aspectos legales, los cuales deben ser considerados especialmente tomando en cuenta que pueden existir leyes publicas que crean obligaciones del fabricante frente al usuario, o que se requieren aprobaciones por entes específicos previo a la comercialización . Instalación: accesorios necesarios y exigencias para que la instalación sea compatible con los demás equipos con los cuales debe interactuar. Documentación: manuales a generar: de usuario, de instalación, de mantenimiento.

Disposición del equipo: recomendaciones acerca de qué hacer cuando se produce la baja.

9

Page 18: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño 10

Dado que las especificaciones sirven de guía para el equipo de proyectistas, es por ello esencial que los participantes del proceso de diseño posean un completo entendimiento de las mismas, y para que este sea común es fundamental una coordinación entre los distintos sectores. Para ello, se establecen grupos interdisciplinarios para discutir cómo se deben interpretar las especificaciones en las distintas áreas y cómo deben ser aplicadas. A pesar de que las especificaciones se establecen con carácter permanente e inviolable, deberían ser continuamente revisadas y revalidadas durante el proceso de diseño, para asegurar que siguen reflejando las metas y objetivos del proyecto.

Conceptualización Para definir la solución hay dos caminos opuestos: el ascendente y el descendente. En el primer caso, se parte de componentes existentes, alrededor de los cuales se va construyendo la solución. En el segundo se hace un desglose en sub-problemas y así sucesivamente hasta llegar a componentes definidos a la medida de la necesidad, los cuales, de no existir, será necesario desarrollarlos, figura 7.

Rara vez se usa en exclusividad uno de estos métodos, sino mambos. La técnica ascendente busca usar elementos estándar, y la delementos dedicados, de una capacidad dimensionada a la medida deventaja de que, siendo elementos dedicados, restringe el acceso de comLa desventaja es que el esfuerzo de diseño es mayor, y sólo redituablmercado.

8Fig. 7

En cualquier caso no debe perderse la perspectiva del proasociada a un sistema o equipo, y la tarea de proyecto es definir los pero teniendo claro a que nivel de descenso debe llegarse para obcompetitivas y de beneficio, diferenciando aquellas partes que integran

La complejidad del proyecto, y por ende el esfuerzo de diseñose descienda: cuanto más bajo, mayor es el número de partes tecnológica, figura 7, y menor el valor agregado, figura 8. Algo quSiempre los mayores beneficios están por el lado de los sistemas. El desarrollo es como ubicarse en ambas pirámides. Con componentedebajo de las milésimas de dólar la unidad, ¿cuantos miles son neespecífico tenga sentido económico? La excepción son los componensistema o equipo.

Definido el sistema, el paso siguiente será determinar que cosy que cosas por soft, y la manera más simple de decidirlo es, a pgenerar especificaciones consistentes para el desarrollo de ambos. Bay el hardware quedan definidos en una etapa temprana, haciendo quemedida independiente, y por tanto pueda hacerse en forma paralela, figel diseño del software se reduce a escribir código alrededor de un hardpequeños proyectos; en los grandes hay una interacción continua.

10

Fig.

as bien una combinación de escendente requiere definir su carga. Tiene además la petidores a esos elementos.

e con suficiente volumen de

blema: La necesidad estará componentes de la solución, tener las mayores ventajas el núcleo del producto. , depende del escalón al que a definir y la complejidad e no debe perderse de vista: problema de la ingeniería de s cuyo valor se ubica por cesarios para que su diseño tes que forman el núcleo del

as se van a resolver por hard artir de los requerimientos, jo este esquema, el software su desarrollo sea en gran ura 8. Esto, que supone que ware definido, es posible en

Page 19: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 11

Definir tempranamente que cosas se implementaran en hard y que cosas en soft no es una decisión fácil y de respuesta única. La tendencia es volcar la mayor funcionalidad posible en el soft. Las limitaciones para esto son la capacidad de memoria, la velocidad de procesamiento requerida, y los retardos de tiempo admisibles para la atención de interrupciones. Pero, a medida que se pone mas funcionalidad en el soft se incrementan la complejidad, el tiempo para codificar, la cantidad de errores, y el tiempo necesario para depurar. En resumen, el problema puede ser planteado de este modo:

• La solución por hard implica siempre agregar algún integrado adicional, y esto agrega un costo extra por cada unidad producida, que puede ser importante en productos de bajo costo. Esto hace que aquellas funciones que no pueden cumplirse por soft, por falta de memoria o velocidad, deben ser descartadas

• La solución por soft es un costo no recurrente, en la medida en que este exenta de errores y se implemente mediante mascara

Evaluación de viabilidad La evaluación de viabilidad se realiza usualmente como parte de la tarea de conceptualización en pequeños proyectos, pero es la acción principal en proyectos importantes, llevando en muchos casos varios años de estudios. El propósito de la evaluación de viabilidad es asegurar que el proyecto sea exitoso, sobre la base de que su realización será factible tanto técnica como económicamente. La manera en que se hagan estas evaluaciones dependerá del tamaño y la complejidad del proyecto. El período de evaluación es el momento para definir conceptos que el diseño seguirá para asegurar que el producto final cumpla el objetivo propuesto, basándose en los recursos disponibles. Primero se hace un análisis técnico, buscando determinar la disponibilidad de los componentes que integran el núcleo del proyecto, y luego el esfuerzo se concentra en la estimación de los costos, ya que éstos son, en general, los principales factores limitantes.

En el diseño de productos es necesario valorar los beneficios de cada alternativa. La tarea de predecir cuantitativamente el comportamiento de cada alternativa con respecto a cada uno de los criterios que se hayan fijado para el proyecto no es tarea sencilla. La mayoría de estas predicciones han de hacerse cuando el proyecto aún está en su etapa conceptual, debido a que la experimentación raramente es económica. Precisamente bajo estas condiciones es cuando no se puede predecir con exactitud el desempeño futuro ni los costos relacionados con cada alternativa, ya que es difícil poner en forma cuantitativa, en términos monetarios, todos los factores que inciden sobre el resultado, siendo aceptables aproximaciones del 20% al 30%, y aun mayores. Integrando los estudios de viabilidad están los análisis de fortalezas y debilidades, con los cuales se busca determinar las oportunidades y las amenazas a las que esta sujeto el proyecto. Estos análisis tratan de mostrar que acciones serán necesarias para llevar el proyecto hacia aquel horizonte donde se es fuerte, donde están las mayores oportunidades de éxito. Es decir, el análisis de fortaleza busca definir las áreas o puntos en los que se apoya el proyecto y donde la empresa es uerte, y las amenazas a las que esta sujeto por parte de los competidores y de los clientes. f

Diseño preliminar Durante el diseño preliminar se define la configuración total del sistema, el diagrama de bloques, y se hace la selección de los componentes que integran el núcleo del proyecto, teniendo en cuenta disponibilidad, costo, limitaciones y facilidades de manufactura, metas de fiabilidad, etc. y se desarrollan los diferentes planos, esquemas y/o documentos generales que asistirán a los proyectistas en la etapa del diseño detallado. Los requerimientos que se establezcan en esta fase del proceso serán la base de las especificaciones finales, aunque es importante tener en cuenta los siguientes conceptos:

11

Page 20: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño 12

1. Es imposible especificar correctamente al comienzo de un desarrollo todos los requerimientos del sistema, por lo que será necesario un refinamiento iterativo a medida que se avance en el proceso de desarrollo.

2. Se deben aceptar las frecuentes y sucesivas realimentaciones como una manera de ir refinando el diseño.

3. Es usual en la etapa del diseño preliminar apoyarse en paquetes de simulación específicos con la finalidad de validar conceptos de solución. Estos paquetes de CAD se basan en modelos que, aunque muy potentes, requieren normalmente una posterior comprobación experimental, que, de ser negativa, obligara al replanteo de la solución.

El diseño preliminar es, usualmente, llevado a cabo por un pequeño núcleo de profesionales

que representan las distintas disciplinas involucradas en el proyecto, los cuales una vez finalizada la etapa preliminar continuarán trabajando en la fase siguiente (diseño detallado).

Diseño detallado El propósito de esta etapa del proyecto es:

• seleccionar los circuitos, • establecer modelos para el cálculo de los elementos, a fin de determinar la carga a la que

se ven sometidos, • seleccionar los componentes estándar en función de la carga a la que están sometidos,

indicando fabricante y número de parte correspondiente • establecer las especificaciones que deben ser satisfechas por los componente a medida, • realizar análisis de valor de cada elemento, • documentar los problemas detectados en las etapas de verificación, y las acciones de

corrección correspondientes • documentar los resultados de los ensayos de validación efectuados sobre prototipos • generar la documentación y las especificaciones que describan completamente el diseño,

etc.

En otras palabras, en esta etapa, diferentes grupos de profesionales y departamentos de la organización de diferentes disciplinas trabajan activamente en procesos de síntesis y análisis de las soluciones, realizando evaluaciones de componentes para validar los requerimientos establecidos previamente, especificando aquellos que hasta el momento habían permanecido indefinidos y estimando los efectos de los distintos componentes en el sistema. Las especificaciones son, en general, planos con detalles de terminación, con medidas y datos de los ensayos a los que esta sujeta cada parte, y donde por lo general el número de plano se convierte en el número de parte.

Para los componentes y demás elementos dedicados del sistema se realizan los planos de detalle, que especifican las dimensiones necesarias, los materiales de construcción, técnicas de maquinado o ensamble, requerimientos para su ensayo, etc. Los planos de detalle deben incluir toda la información necesaria para producir y verificar el componente; además deben mostrarse las vistas de las piezas que serán necesarias para la manufactura.

La selección de los componentes estándar que giran alrededor de los componentes principales que integran el núcleo del proyecto deberá hacerse teniendo en cuenta:

• Costo ( considerando el volumen ) • Calidad y fiabilidad ( niveles de AQL y tasa de fallas ) • Características funcionales especificas (tolerancia, comportamiento térmico, etc ) • Disponibilidad en el mercado ( tiempo de entrega ) • Exigencias de manufactura ( tipo de montaje y soldadura ) • Racionalización ( gama preferida de valores ) • etc

12

Page 21: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 13

Un punto débil de muchos diseños es la falta de un análisis de valor que justifique la necesidad de cada elemento y las razones de su elección, o haber descuidando las condiciones de validez de las características suministradas en las hojas de datos, o bien que se aproveche una funcionalidad de los dispositivos basada en características no documentadas. Otro punto a cuidar se da cuando se emplean dispositivos de un modo no convencional, en aplicaciones para las cuales no fue pensado. En tal caso, las hojas de datos seguramente no suministraran toda la información necesaria para el diseño, por lo que el parámetro que se quiere aprovechar puede star totalmente descontrolado. Dos situaciones pueden darse, que el diseño se apoye en: e

• características documentadas, pero con información insuficiente; • comportamientos no documentados en las hojas de datos.

Solo en el primer caso se tiene la certeza de que se mantendrán esas características, y por

tanto podrá ser usado sin restricción alguna, salvo las que resulten de los propios valores limites. El otro punto que no debe descuidarse en el análisis detallado de los circuitos es el

correspondiente a las condiciones de sobrecarga, y los transitorios de conexión y desconexión. Es decir, el análisis de los circuitos no debe limitarse solo al análisis bajo condición normal y en régimen. Deberán considerarse también las condiciones anormales que pueden darse en el proceso de conexión o de desconexión del equipo, o las que resultan por condiciones anormales de carga. Este tipo de situaciones se da siempre en todos los circuitos que incluyen elementos reactivos. Para evitar estas sobrecargas, puede ser necesario agregar componentes o circuitería adicional que límite la tensión, la corriente o la potencia disipada.

Despliegue de la función de calidad (QFD) La meta final de cualquier diseño es la satisfacción del cliente. Por ello, una de las tareas

más importantes es conocer y considerar desde el comienzo del desarrollo quien va a ser el usuario, cuales son sus expectativas y conque productos se debe competir, y relacionar esto con las características para el diseño. A este fin se han propuesto diversas herramientas, siendo la casa de calidad una de las más importantes surgidas en los últimos años. Con esta ayuda se busca:

• evaluar el producto bajo la percepción del usuario, • realizar un análisis comparativo con respecto a la competencia bajo la óptica del usuario • realizar análisis de competitividad basado en las características técnicas • evaluar las dificultades para alcanzar las metas • establecer el compromiso de los distintos sectores internos de la empresa en el logro de

las metas del producto • establecer la interrelación entre las características

La casa de calidad, cuya denominación se debe a la forma que toma, figura 9, va mas allá del usuario del producto: es una herramienta útil para la planificación, el desarrollo, la comunicación y la coordinación requerida entre los distintos sectores de la empresa, entendiendo que el principal objetivo de esta es dar satisfacción al cliente. Es decir, el QDF es una herramienta para ajustar la empresa al cumplimiento de su principal objetivo: la satisfacción del cliente. En vez de seguir siempre el mismo camino para dar solución a los problemas, se formula para cada caso uno, el cual, se concibe según los nuevos requerimientos del cliente. Esto lleva a que por un lado se omitan tareas que no son valoradas por el cliente, y por otro no se eluda la realización de aquellas que hacen a la bondad del producto tal como el cliente lo aprecia.

Para ponderar según la visión del cliente las características del producto deben considerarse, siguiendo el modelo propuesto por Kano, figura 10, tres tipos de atributos:

los explícitamente formulados los implícitos, y normalmente esperados por el cliente, y considerados obvios. Los impensados y desconocidos por el usuario, pero cuya disponibilidad le entusiasma

13

Page 22: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño 14

Para Kano, incumplir requerimientos explicitados genera disconformidad, pero incumplimientos de atributos implícitos causan siempre gran insatisfacción; por el contrario si el usuario es sorprendido con atributos o características adicionales que le agregan valor, esto provocara un fuerte entusiasmo con el producto, aun para un nivel de cumplimiento bajo.

El esquema de la casa de calidad se aplica en todas las etapas de proyecto, donde el cliente debe verse en su acepción más amplia: Son clientes de una etapa todos los que usan la salida de esa etapa. Es decir, se consideran usuarios a todas las etapas que siguen dentro del ciclo de vida del producto, y esto incluye a muchos sectores internos de la propia empresa. Para cada uno de estos clientes, dentro de cada fase, debe ejecutarse la correspondiente casa de calidad.

Requerimientos

Matriz deinterrelacion

Con la función de despliegue de calidad se p

cliente, y recién luego considerar al COMO darle saverse como una sucesión de QUEs y COMOs, figurapara definir las distintas acciones en el desarrollo del

La casa de calidad puede verse simplementecon un enfoque definido. La primera tabla comirequerimientos del cliente en características internas dtraducen luego en requerimientos que deben ser volcde cada etapa. La idea es que cada componente de laproveedor. Como cliente recibe entradas y como provsu cliente, ejecutar un trabajo, y transferir como provecadena no es solo el usuario final el cliente, sinoconsiderada como tal, aunque todas actúen bajo la odel producto. Conocidos los requerimientos plantedeterminar en que medida cada sector puede darles cusegunda tabla en la cual se evalúa la posición propiarequerimientos que plantea el usuario, figura 12.

Fig.9

Ade

nalisis tecnico

competitividad

Especificacionespara el diseño

E5E4E3E2 E6E1

competidor

propio

Analisisposicion

competitiva

Pesorelativo

R1 P1

R6R5R4R3R2 P2

P3

P6

P5

P4

14

retende responder primero al QUE quiere el tisfacción. Todo el ciclo del producto puede 11, debiendo verse a la QFD como la base producto. como la reunión de distintas tablas, cada una enza en la fase conceptual: traduce los e la empresa. Las características internas se ados en las tablas (casas de calidad) propias

empresa se vea a la vez como cliente y como eedor debe considerar los requerimientos de edor una salida a su cliente. Es decir, en esta que cada unidad de la empresa debe ser rientación del cliente final, que es el usuario ados para cada etapa del diseño se puede mplimiento. Con esto es posible generar una frente a los competidores en relación a los

Fig.11

Q U E

C O M O

D is e ñ o d eP ro d u c to

D is e ñ o d eM a n u fa c tu ra M a n u fa c tu ra

Fig.10

Page 23: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 15

Departamentos involucrados

Caracteristicas yespecificaciones

1 2 3 4 5

Analisis decompetitividad

Para

met

ro c

ritic

ode

l clie

nte

Act

ual

Com

pete

ncia

Met

a

Prio

ridad

¿COMO?

¿QUE?

requerimiento 1

requerimiento n

Rec

lam

os y

gar

antia

s

Fig.12

Analizando el posicionamienpara el proyecto, de lo cual resultara elas diversas características, figuras 9 ooperar y trabajar de un modo coordinc

Ingeniería del valor (VE)

La ingeniería del valor buscLa idea es aumentar el valor de los prsu calidad o fiabilidad. Si bien le cabesta función deben participar todas las

Para llevar a cabo un anális

• análisis de las funcio• alternativas de diseñ• análisis de costos

Lo primero tiende a asegura

analizar luego si el modo de darle salternativas que permitan por eliminpartes y elementos inicialmente requerlos distintos bloques circuitales corresinterfase entre ambos.

Obviamente el análisis del con más influencia en los costos, recproducto carecería de valor, y consfunciones secundarias apoyan a las fadoptado para la función básica. Seeliminadas, o simplificadas. El costo básicas, y no por las secundarias.

El desglose entre básico y stiene una función específica, y ciermientras que otros son solo necesariosel modelo de cálculo. Ciertas funcdeterminados entornos, pero totalmeneste análisis surgirá si es necesario y solo hacerla especifica para la operació

El análisis de costo debe ssectores. Es decir, deben ser contemplos posibles proveedores, los acuerdos

¿COMO?

¿QUE?

requerimiento 1

requerimiento n

Analisis decompetitividad

Para

met

ro c

ritic

ode

l clie

nte

Prio

ridad

EstiloDesarrollo de

producto Manufactura Ensayos

Rec

lam

os y

gar

antia

s...

tecnicas

1 2 3 45

Act

ual

Com

pete

ncia

Met

a

Fig.13 to actual de la empresa, se determinara la meta propuesta l futuro posicionamiento pretendido y la interrelación entre y 13, mostrando a la vez los sectores internos que deben ado.

a identificar y eliminar los costos inútiles de un producto. oductos, suministrándolos a pecios más bajos sin disminuir e a la ingeniería de producto la mayor responsabilidad, en áreas. is del valor es necesario considerar:

nes o

r que la función es necesaria, y este bien definida; se debe olución es el mas adecuado. Para ello se deben generar

ación, sustitución o simplificación reducir la cantidad de idos. Esto es especialmente importante cuando el diseño de ponde a distintos responsables, y no esta bien establecida la

valor debe enfocarse primeramente al análisis de las etapas onociendo sus funciones básicas, aquellas sin las cuales el iderando a las demás funciones como secundarias. Las unciones básicas, y son dependientes del tipo de solución debe determinar si estas son esenciales, o pueden ser del producto debería estar determinado por las funciones

ecundario debe trasladarse a nivel de circuito. Cada circuito tos componentes son esenciales para su funcionamiento, en casos especiales, y en otros simplemente para simplificar iones pueden ser básicas cuando el equipo opera en te prescindibles en los demás casos. Por consecuencia, de conveniente incluir la función en todas las unidades, o tan n en determinados entornos. er completo, debiendo estar implicadas todas las etapas y lados y revisados los métodos de fabricación, los procesos, de compra, etc.

15

Page 24: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño 16

Diseño experimental El esquema del proceso del diseño representado en la figura 1 contempla tres pasos bien definidos:

• Saber que es lo que se quiere ( que es parte de las entradas del diseño ) • Definir la forma de darle solución ( proceso de diseño propiamente dicho ) • Verificar que la solución propuesta satisface los requerimientos (validación )

y para este último paso se requiere siempre efectuar pruebas experimentales. Los ensayos no son exclusivos de la etapa de validación, también son necesarios:

• Durante la concepción para verificar principios y hacer evaluaciones tempranas de desempeño, o caracterizaciones de entorno o de carga,

• Durante el desarrollo del producto, para confirmar cálculos o estimaciones de carga • Durante la etapa de crecimiento de la fiabilidad, para aportar información sobre las fallas • Durante la producción, para la optimización de los procesos • Después del lanzamiento del producto al mercado para hacer evaluaciones de campo con

el fin de confirmar los objetivos de mantenibilidad, fiabilidad y operatividad.

Ahora bien: ¿cual es la mejor manera de experimentar? Un modo seria construir el sistema, ponerlo en marcha, y empezar a recolectar datos. Aunque es el modo más común, el mismo presenta problemas a la hora de tratar los datos. El diseño de experimentos busca, manipulando el sistema bajo estudio, obtener con menos datos, o sea menos volumen experimental, no solo mas información, sino además de superior calidad (menor error). Esto requiere formular un plan como paso previo a la ejecución del ensayo, donde conste:

Planteo del problema, definiendo los objetivos del ensayo Análisis teórico, determinando las leyes y principios que rigen el proceso Plan de medición, definiendo variables, métodos, y protocolos de medición Análisis de errores , determinando las fuentes de error y formas de minimizarlas Capacidad de los instrumentos, evaluando la adecuadicidad del instrumental

Datos a obtener y su forma de presentación ( tabular y grafica )

Tratamiento de datos, definiendo las herramientas apropiadas

Conclusiones que se esperan y en que análisis se fundamentaran

Uno de los pasos mas importantes será verificar que se esta midiendo la variable correcta y en el punto adecuado, evitando fuentes de error debidas al método. Aquí debe mencionarse el peligro de tomar ciegamente las indicaciones de los instrumentos sin consideración adicional a sus valores. Las observaciones que sean totalmente inconsistentes, o se apartan de lo esperado deben rechazarse, o confirmarse repitiendo el ensayo. Es decir, aunque en ciertos casos podrá ser suficiente una sola experiencia, lo conveniente es siempre repetir el ensayo para saber si la medición es consistente y tener una idea de la variabilidad por factores que están fuera de control. Usualmente convendrá replicar el ensayo para no dejar afuera errores debidos a falta de uniformidad del material bajo estudio y variabilidades de proceso, o bien cuando no sea posible repetir la experiencia. Pero, esto trae aparejado otro problema: Que las diferencias observadas sean consecuencia de otras diferencias entre las replicas, y no solo del factor observado.

Cuando existe la convicción de que una variable influye sobre la experiencia y puede ser controlada, esta debe ser incluida como un factor más. Cuando su influencia es menor, o no puede ser controlada, entonces lo conveniente es buscar la forma de que se manifieste de modo aleatorio. Con la aleatoriedad se busca que la asignación de factores y niveles que no se pueden mantener bajo control se distribuya aleatoriamente entre todas las observaciones, de modo que sus efectos resulten compensados.

Cuando la aleatoriedad no es posible, se recurre a la bloquización. Con la bloquización se busca realizar los experimentos formando bloques como un modo de eliminar fuentes indeseadas de variación; es decir, evidenciando las diferencias entre las unidades bajo experimentación.

16

Page 25: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 17

Diseño de experimentos (DOE)

El diseño de experimentos busca definir el mínimo número de ensayos y los niveles que debe tomar cada una de las variables con la finalidad de determinar los factores que influyen sobre uno o varios parámetros objetivos. Esto es muy importante cuando son varios los parámetros a estimar, puesto que para cada nivel que asuma una variable, este debe combinarse con todos los niveles de las demás, debido a que los efectos de un factor pueden ser distintos cuando se cambia el valor de otros. Como difícilmente pueda, o tenga sentido, considerar todos los factores, sabiendo que algunos tienen mínima influencia, las observaciones estarán influenciadas por las variaciones de aquellas variables que no se mantienen bajo control, acarreando un error en la estimación. Si las variables no controladas tienen un comportamiento aleatorio, el error se reduce promediando las observaciones que resultan por repetición o replica del ensayo. Para reducir el error experimental no necesariamente conviene que las replicas se hagan exactamente para iguales condiciones de las variables bajo control, dado que, como se vera, es posible y conveniente lograr un mayor conocimiento variando las condiciones de la experiencia.

Diseñar una experiencia exige que primeramente este bien definida la característica o ideal de objetivo para el producto, para luego fijar el criterio de evaluación y principales factores, y su carácter, que lo determinan. Es decir, básicamente, deberán seguirse los pasos siguientes:

1. Fijación de las características de interés ( parámetros objetivos ) 2. Determinación de las variables de influencia, en base a

a. Diagrama causa-efecto ( o diagrama de Ishikawa ) b. Diagrama de árbol de fallas, entendido en sentido amplio

3. Selección y evaluación de las variables de influencia. Las variables con influencia se clasifican y listan en grupos, diferenciándolas entre:

a. Independientes, variables controlables y con marcada influencia b. Variables cuya influencia resulta difícil o es imposible precisar y controlar

4. Definición de las interacciones 5. Reducción del número de variables con influencia determinadas en el paso 2, buscando

simplificar el experimento. 6. Selección de los factores de experimentación y el peso de cada variable, determinando

que sea posible ajustarlos de un modo preciso 7. Fijación de los niveles de cada factor. El caso mas simple se da cuando cada factor

asume solo dos niveles. Estos niveles se fijan tomando en cuenta: a. Intervalo de posible variación b. Facilidad de implementación c. Precisión con que pueden ser establecidos

11

y

y1y2y3y4

-11

1

No

1234

-1-1-1

xα1 xα2

yA

BE0 E1

1

10

0x 1

x2

yX1

X2

Fig.16 Fig.15 Fig.14

Supongamos que se desea establecer la vinculación de una característica, que se supone es función de solo dos variables: x1 (factor A) y x2 (factor B), figura 14, cuyo comportamiento se propone describir con un modelo lineal

21422110 xxaxaxaay +++= (3)

Esta expresión considera, además de los efectos principales de cada factor (representados por los coeficientes a1 y a2), los efectos debidos a la interacción de los mismos ( coeficiente a4 ). Para determinar los 4 coeficientes del modelo es suficiente realizar 4 ensayos, observando la salida correspondiente a dos niveles en cada variable, figura 15.

17

Page 26: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño 18

Para facilitar el tratamiento analítico es común replantear el modelo, introduciendo un corrimiento en el origen y un cambio de escala de cada variable. Cada variable independiente se hace variar alrededor de su valor medio, asumiendo para el mismo el valor 0, y se impone el valor 1 para el nivel alto, y -1 para el nivel bajo. De este modo, x1 y x2 se transforman en las variables xα1 y xα2, con lo cual la expresión (3) toma la forma

211222110 .... αααα αααα xxxxy +++= (4) siendo α0, α1, α2, y α12 los nuevos coeficientes a determinar. A los efectos del experimento, las variables xα1 y xα2 pueden asumir solo dos valores (+1,o -1), figura 16, de modo que por reemplazo directo en (4), resulta la vinculación entre los valores observados y los coeficientes

122104 αααα +++=y (5)

(8)

(6) (7)

122103 αααα −+−=y

122102 αααα −−+=y 122101 αααα +−−=y

de las cuales se deriva la forma matricial mas sintética y general, (9) α.hy =

siendo h la matriz de Hadamard de orden 2n. La expresión (9) permite obtener los coeficientes α

yhyh n

n

.2

)2(.1 == −α (10)

la cual, desarrollada para el presente caso, toma la forma

1

2

3

4

1

2

3

4

4)(.

1111111111111111

41

yyyy

h

yyyy

=

−−−−−−

=

α

4.

ααα

12

0

1

2

(11)

Como cada columna de la matriz esta asociado con un termino de la expresion (4), el arreglo experimental de la figura 16 quedara definido por las columnas que corresponden a los terminos principales, columnas que estan marcadas en sombreado en la expresion (11).

Los efectos de un factor también pueden verse como el promedio de los cambios que resultan cada vez que se varía solamente dicho factor. En el presente caso, para el factor A debería promediarse y2-y1 e y4-y3.. Las expresiones (5) a (8) permiten hallar el efecto de A, coeficiente α1, en función de dichas diferencias, el cual queda así expresado en la forma

222213243412 yyyyyyyy

Adeefecto+

−+

=−

+−

= (12)

y de igual modo se obtiene el valor de los otros efectos. Esto lleva al proceso de calculo conocido como ANOM (Analysis of means), en el cual se promedian por un lado todas las observaciones que corresponden a un nivel dado de un factor sin importar el nivel de los demás, y por otro se hace el promedio de todas las observaciones en el otro nivel. La diferencia entre ambos determina el efecto de ese factor.

El modelo propuesto, expresión (4), supone que el resultado de la observación queda determinado solo por los factores que están bajo control, y que además no hay error de medición. Bajo estos supuestos es innecesario realizar repeticiones: basta con una observación por factor y nivel. Pero la realidad es que los errores y la influencia de factores fuera de control estarán siempre

resentes, de modo que es necesario considerar un modelo ampliado p

ξαααα αααα ++++= 211222110 .... xxxxy (13) en el cual se agrega un termino de error, ξ. Determinar este nuevo parámetro exige contar con más observaciones, las cuales pueden obtenerse repitiendo o replicando cada ensayo un número dado de veces, En este caso, en la expresión (13), el vector y será el promedio del conjunto de las observaciones repetidas, y el error podrá estimarse en función de la varianza de estas.

18

Page 27: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 19

Experimentos factoriales completos Se habla de un experimento factorial completo cuando para cada factor y nivel del

mismo se realiza la experiencia considerando todas las combinaciones de los distintos factores en todos sus niveles. Si hubiera n factores, y cada factor tomara m valores distintos, entonces seria necesario realizar mn ensayos distintos.

tiempo

exploratorios de caracterizacion de optimizacion

Familia de ensayos

Fig.17

Como la complejidad del ensayo aumenta con el número de factores y niveles,

usualmente el plan de experimentación sigue los pasos indicados en el esquema de la figura 17. Primero se realizan ensayos exploratorios en los cuales se consideran todos los factores ( 4 a 10 ), con la finalidad de determinar los efectos principales y conocer cuales son los factores significativos de influencia. Se realizan luego ensayos de caracterización, en los cuales se consideran todos los efectos de los factores mas significativos ( 2 a 5 ); para la finalidad de estos ensayos, es suficiente considerar tan solo dos niveles. Teniendo una mejor caracterización se realizan los ensayos de optimización, con un número de factores mas reducido ( 2 a 3 ), y con mayor número de niveles.

De acuerdo con esto, se realizaran diseños experimentales factoriales completos cuando la finalidad sea examinar los efectos de un pequeño número de factores, para caracterizar su influencia, y que por tanto, las interacciones entre ellos no pueden ser excluidas. Para reducir la magnitud del ensayo, estos se realizan con dos niveles por factor. Por ejemplo, el análisis sobre un único parámetro objetivo de cuatro factores A, B, C y D, cada uno con dos niveles ( 0 y 1), determinara un plan denominado 24, que requiere de 24 ensayos. En base al resultado de los ensayos podrán estimarse:

• los efectos principales: de A,B,C y D; • las interacciones entre dos factores: AB,AC,AD,BC,BD y CD; • las interacciones entre tres factores: ABC,ABD,ACD, y BCD; • la interacción de los cuatro factores: ABCD

Dado que la expresión (10) permite calcular los coeficientes de sensibilidad de cada una

de las variables en función de las observaciones, solo resta definir el valor que debe tener cada variable ( -1 o 1 ), en cada uno de los 2n experimentos, lo cual lleva a un arreglo que se conoce como matriz de experimentación. El arreglo para el diseño de los experimentos se puede obtener de la propia matriz de Hadmard, en base a las columnas que están asociadas a los términos principales, o bien con la función ff2n(n) de Matlab. Esta función integra el grupo de funciones del Design of Experiments (DOE), contenidas en el Statistics Toolbox de Matlab.

Un punto que merece destacarse es que la matriz del diseño solo define el estado de cada variable en cada uno de los experimentos, lo cual no tiene ninguna vinculación con el orden conque efectivamente se realicen los mismos. En este sentido, para minimizar errores, conviene que el orden, dado por el número de fila de la matriz, sea definido de modo aleatorio.

Cuando el experimento involucra múltiples niveles, el arreglo se puede obtener con la función fullfact(niveles), también disponible en Matlab, en la cual el argumento niveles = [ n1 n2 n3 ..] es un vector que indica el número de niveles conque se experimentara con cada variable. Es decir, fullfact(niveles) genera una matriz de experimentos que tiene n1 niveles en su primer olumna( variable x1 ), n2 en la segunda columna (variable x2 ), etc. c

19

Page 28: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño 20

Experimentación factorial fraccional Cuando el experimento factorial incluye muchos factores lleva a un número de experimentos muy alto, y puede que muchos de ellos no aporten información debido a que corresponden a interacciones que de antemano se sabe son poca significativas. Despreciando algunos efectos, suponiéndolos nulos, se reduce la cantidad de incógnitas, y por tanto de experiencias. En tal caso se habla de una experimentación factorial fraccional.

Bajar el número de experiencias tiene sus consecuencias. Supongamos el caso de tres factores A, B y C, cada uno con dos niveles. Una experiencia factorial completa seria de la forma dada por la función de Matlab ff2n(3), la cual lleva a las observaciones yi, figura 18. Según lo desarrollado anteriormente, los distintos efectos se calculan promediando los resultados de los experimentos, con el signo que surge de la matriz de Hadamard. Para mejor claridad en el análisis, en la tabla de la figura 19 solo se retiene el signo de los coeficientes de la matriz de Hadamard.

0 0 0 0 0 1 0 1 0 0 1 1

1 0 0 1 0 1 1 1 0 1 1 1

A B C

ff2n(3) =

y1y2y3y4y5y6y7y8

Fig.19

NivelEfecto↓

111y8

101y6

011y5

100y4

010y3

001y2

000y1

A + + - + - - -B + - + - + - -C + + + - - + -AB + - - - - + +AC + + - - + - +BC + - + + - - +ABC + - - + + + -

110y7++-+---

Fig.18 Supongamos ahora que no se realizan algunos experimentos, en particular los que

corresponde a las observaciones y8, y4, y3, e y2. En este caso, en base a los signos de los coeficientes que restan en la tabla vemos que no es posible diferenciar algunos efectos, como ser el A y el –BC, dado que para ambos resultan idénticas expresiones; igual sucede con B y –AC, y con C y –AB, etc. Es decir, el cálculo lleva a una confusión de los factores.

Un caso especial de experimentación fraccional lo constituyen los ensayos ortogonales, donde solo interesa estimar los efectos principales, en cuyo caso el modelo es del tipo

∑+=k

ii xy1

0 . ααα (14)

Para estos ensayos hay un arreglo del diseño que minimiza la covarianza de los coeficientes αi. Si X es la matriz del diseño, el diseño se dice ortogonal cuando los elementos que están fuera de la diagonal de la matriz (X’X ) son nulos, donde X’ es la matriz traspuesta de X; esta propiedad la verifica la matriz de Hadamard.

Experiencia1 1 1 1 1 1 1 1

L8 A B C D E G HFactor

1 1 1 1 1 1 1 1 1 -1 1 -1 1 -1 1 -1

Fig.20 a

Por cacual se puede hprincipales. Est

Menciintrodujo el disdiferenciando efactores, que cdiseños ortogonóptima que mintiempo optimiz

20

X =

1 1 -1 -1 1 1 -1 -1 1 -1 -1 1 1 -1 -1 1 1 1 1 1 -1 -1 -1 -1 1 -1 1 -1 -1 1 -1 1 1 1 -1 -1 -1 -1 1 1

1 -1 -1 1 -1 1 1 -1b) )

so, para X = hadamard(8) resulta la matriz h(acer la estimación de la media general, o efecta función lleva al denominado plan de experienón especial merecen los denominados diseñoseño experimental como una importante herramntre factores específicos que determinan las considera perturbadores, de poca incidencia y ales de Taguchi buscan encontrar con mínimoimice los factores de perturbación sobre el pará

ar los factores de control ensayando con dos o m

2345678

-1 1 -1 1 -1 1 -1 1 -1 -1 1 1 -1 -1-1 -1 1 1 -1 -1 1

1 1 1 -1 -1 -1 -1-1 1 -1 -1 1 -1 1

1 -1 -1 -1 -1 1 1-1 -1 1 -1 1 1 -1

8) indicada en la figura 20a, con la o medio, y de hasta otros 7 factores cias L8, indicado en la figura 20b. ortogonales de Taguchi. Taguchi

ienta para el diseño de productos, aracterísticas del producto, de otros de difícil o imposible control. Los esfuerzo experimental la condición metro objetivo, y permita al mismo ás niveles para cada factor.

Page 29: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 21

Análisis de Varianza (ANOVA) Cuando se efectúan cambios en un circuito esperando que en correspondencia varíe el valor de alguna de sus característica, se dice que el circuito esta sujeto a un tratamiento. El concepto de tratamiento es amplio: Un tratamiento puede ser el cambio de un dispositivo por otro supuestamente mejor en algún sentido, el agregado de un disipador para reducir la temperatura, el cambio de ubicación de algún componente o de asignación funcional de la patita de un dispositivo con la finalidad de eliminar una interferencia, un cambio de valor, etc. Efectuado el cambio, para saber si el mismo es efectivo, se hace una prueba experimental. El problema es que toda comprobación experimental esta sujeta a errores y al efecto de factores que están fuera de control.

La minimizacion del error experimental es un aspecto clave en el diseño de pruebas. Este error debiera estar conformado exclusivamente por aquellas causas que no son suceptibles de ser separadas o atribuibles a causas discernibles. Se ha visto que una forma de reducir los errores es realizar varias replicas de cada tratamiento, considerando la media de los valores observados como una mejor estimación. Si no se encuentra diferencia entre los valores medios correspondientes a los distintos tratamientos, cabe la posibilidad de que :

1. efectivamente no haya diferencia entre los tratamientos, 2. que el método y su instrumentación originen un alto error experimental que supera las

diferencias causadas por los tratamientos, 3. que las diferencias individuales entre replicas sean tan grandes que enmascaran las

diferencias entre los tratamientos. Suponer que hay diferencias individuales es lo mismo que suponer que hay dos variables

de diferenciación: por un lado los tratamientos, donde cada tratamiento define un tipo de grupo, y por otro diferencias individuales que a su vez se pueden agrupar en bloques, de modo que la única diferencia dentro de cada bloque, además del error experimental, es el tratamiento.

Cuando no hay diferencias individuales se recurre a una prueba de hipótesis para la comparación de medias, basada en la distribución t de Student. Pero cuando hay diferencias individuales tales que determinan k bloques homogéneos, la aplicación de la prueba de Student exigiría comparar todos los bloques, probándolos de a dos, y en todas las combinaciones, lo cual hace que el método sea poco eficiente. Además, si se supone que en cada prueba la probabilidad de aceptar la hipótesis siendo verdadera es (1-α), en n pruebas resultara una probabilidad (1-α)n, con lo cual el riesgo de rechazar la hipótesis siendo que es verdadera se ve incrementada de α a 1-(1-α)n.

Para superar estas dificultades se ha ideado un procedimiento denominado ANOVA (Analysis of variance ) que permite probar la igualdad de varias medias, basándose en un análisis de variabilidad. El procedimiento consiste en desdoblar la varianza total en varias componentes de varianza, y decidir sobre la hipótesis de que son iguales o no basándose en el valor de las mismas.

Veamos en que se fundamenta el método. Supongamos que se realizan los tratamientos A, B, C, y D en un circuito, y para cada caso se implementan varias plaquetas sobre las cuales se observa un parámetro de interés. Cada tratamiento es considerado un grupo, y es examinado en forma independiente. Además, con los datos correspondientes a todas las observaciones se hace un análisis del conjunto. Se obtienen así medias de grupo xg= ix y una media general xm= x . Con las medias de grupo se determina la varianza muestral dentro de cada grupo, sdg

2; con la media general la varianza total muestral de las observaciones, s2

total, y con ambas la varianza entre grupos seg

2 = var(xg-xm). La varianza total queda descompuesta así en dos términos: uno, que mide la varianza dentro de grupos, más otro término que mide la varianza entre grupos,

varianza total = varianza dentro de los grupos + varianza entre grupos = Como se puede apreciar en la figura 21b, si no hay diferencia entre los grupos los

medios muestrales serán muy similares, y por lo tanto la varianza entre grupos debería ser pa cero. Esto indica que una manera de reconocer si dos grupos son significativamente dif

222egdgtotal sss +=

(15)

valores róxima erentes

21

Page 30: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño 22

TratamientoA

D

C

B

sA

s

T

sC

s D

s

B

xx x x x x

A B C D

A

D

C

B

TratamientosA

s

T

sC

s D

s

B

x

A B C Dx x x x x

distribuccion del conjunto

≅ ≅ ≅ ≅Seg

sería valerse de la relación entre ambas varianzas. En este principio se basa el procedimiento ANOVA.

Supóngase que se tienen distintos grupos, cada uno responde a un tratamiento distinto. Si

se realizan varias mediciones sobre distintas replicas del mismo tratamiento, las diferencias entre los correspondientes valores medios serán consecuencia del tratamiento. La cuestión es saber cuan diferentes deben ser los valores medios como para considerar que el tratamiento tuvo algún efecto, y no es solo una consecuencia del error experimental. Claramente, observando la figura 21a, se ve que si la varianza entre grupos s2

eg es suficientemente grande con respecto a la varianza dentro de los grupos s2

dg (SA,SB, etc) puede rechazarse la hipótesis nula que supone que no hay diferencia entre tratamientos. Más propiamente, es sabido que la relación entre dos varianzas muestrales, s1

2 y s2

2, obtenidas en dos muestreos de una misma población normal determina una variable aleatoria que sigue la distribución F de Fisher,

22

21

ss

F =

A su vez, como la varianza muestral esta relacionada con la variable χν2, donde ν son los grados de libertad de la prueba, la expresión (16) puede también ponerse en la forma

222

12

122

21

νχνχ

==ssF

Fig.21 a) b)

(16)

(17)

de modo que la distribución de la variable F(ν1,ν2), será función de los grados de libertad ν1 y ν2, usados para definir ambas varianzas muestrales, figura 22. La figura 22 grafica la función de densidad de la variable F para algunas combinaciones de grados de libertad ν1 y ν2.

f(F,v1,v2) Fig.22 Ahora bien, siendo conocida la función de el intervalo de confianza para F, o sea el intervalo varianzas, para aceptar que ambas varianzas muestrpor lo tanto corresponden a la misma población, hab

El cálculo se ve muy simplificado recurrieEspecíficamente Matlab dispone para este análisis cual se pueden comparar las medias de dos o más g

22

P(F≤3.6875) = 0.95

f(5,8)

Fig.23

distribución de la variable F se puede calcular dentro del cual debe estar la relación entre las ales son estadísticamente iguales, figura 23, y iendo prefijado un nivel de confianza. ndo a paquetes de tratamiento computacional. de la función p=anova1(datos, grupos), con la rupos de datos. El argumento de la función es

Page 31: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 23

una matriz donde cada columna corresponde a un grupo distinto. La función determina cuando las medias de las columnas son iguales. En su forma más simple, la función devuelve la probabilidad p de que sea cierta la hipótesis nula de que las medias son iguales, y además genera la tabla ANOVA, una forma convencional de resumir los cálculos. Provee también gráficos de caja para cada grupo, para apreciar su dispersión, figura 24. Los diagramas de caja separan la distribución de valores en cuartiles. Los cuartiles dividen la distribución en 4 partes iguales.

En definitiva, de la tabla ANOVA generada por Matlab se obtiene directamente la probabilidad de que sea cierta la hipótesis nula. Este valor debe ser comparado con el nivel de significancia que se haya predeterminado para la prueba. Es decir, solo si p ≥ (1-α) se deberá aceptar la hipótesis nula de que las medias de grupo son iguales.

El desarrollo anterior supone que la diferencia entre las distintas muestras se debe únicamente al tratamiento. Se trata por consecuencia de una prueba sobre una única variable, por lo cual al método también se le conoce como ANOVA con clasificación en una sola dirección. Esta dirección se supone que es la de los tratamientos, cada uno de los cuales forma un grupo homogéneo. Cuando el agrupamiento se hace según dos variables el método es denominado ANOVA con clasificación en dos direcciones, figura 25.

Bloquesx

Trat

amie

ntos

1 2 3 ..j.. n

12.i.k

Medias

Medias

x11.....................x1n

...................................

xk1 ............. kn

x1.

xk.

x..

x

x.1 x.n

111x 112x 113x 114x 115x 116x 117x 118

celda 11

Fig.25 Fig.24

De este modo es posible determinar simultáneamente si hay diferencia entre los tratamientos y también si existe diferencia entre los bloques. Se tienen así dos hipótesis nulas: que las medias de los tratamientos y las medias de los bloques son iguales.

Para el análisis ANOVA en dos direcciones Matlab dispone de la función anova2(). Para aplicar la función, los datos de las observaciones deben agruparse en forma ordenada: Columnas

ara bloques, y filas para tratamientos, o al revés. La función de Matlab p [P,tabla] = anova2(x,rep,display) (18)

realiza un ANOVA de dos direcciones, y hace posible comparar medias de dos o más columnas y de dos o más filas de una muestra x. Los datos en una columna representan cambios en un factor. Los datos en diferentes filas son cambios del otro factor. Si hubiera mas de una observación por cada par línea-columna, entonces el argumento rep indica el número de observaciones por celda, sean estas repeticiones o replicas. P es un vector del riesgo para la prueba de filas, columnas y efectos de interacción, si estos fueran posibles, y tabla es una matriz de caracteres, con el contenido de la tabla ANOVA.

Si solo interesa determinar si dos o más medias son o no iguales, los métodos desarrollados son suficientes. En otros casos, importa además saber cuales de estas medias pueden considerarse iguales. Una manera de resolver esto es probando todos los pares posibles de combinaciones. Como esto implica muchas pruebas, se han ideado métodos de comparación múltiple, uno de los cuales es el denominado de Bonferroni, para el cual Matlab dispone de la unción multcompare(). Esta función tiene la forma f

[comparacion, medias, h]= multcompare(estad,alfa,display,’bonferroni’,estimacion)

y la misma realiza una comparación usando una estructura estad obtenida como salida, entre otras, de una de las siguientes funciones de Matlab: anova1 o anova2.

23

Page 32: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño 24

Análisis modal de fallas y sus efectos (FMEA)

Es claro que los productos y sistemas se diseñan para cumplir un fin, por lo que su falla será siempre un efecto indeseado. Ahora bien, no todas las fallas tienen iguales efectos, y dado que los recursos siempre son limitados, necesariamente deberán priorizarse los esfuerzos para reducir o eliminar fundamentalmente la posibilidad de efectos catastróficos. Para ello se han propuesto dos herramientas:

• El FMEA (failure mode and effects analysis), un método inductivo que parte de acontecimientos elementales, falla de un dado elemento, y busca determinar las consecuencias de tal evento

• El árbol de fallas (FTA, Fault Tree Analysis), que sigue una metodología deductiva: parte de un acontecimiento que se juzga indeseado, y busca hallar los caminos críticos que conducen a dicho evento1

El FMEA o AMFE (Análisis modal de fallas y efectos) es una herramienta preventiva

usada en el diseño de los productos y de los procesos de manufactura. Su finalidad es asegurar desde el inicio del desarrollo que los objetivos de calidad, fiabilidad y seguridad sean consistentes con los requerimientos del cliente. El termino cliente debe entenderse en su acepción mas amplia, y no referida exclusivamente al usuario final del producto. Los análisis de modos de falla y sus efectos ( AMFEs o FMEAs), aplicados inicialmente en proyectos militares, son actualmente de aplicación generalizada en toda la industria. El FMEA es una herramienta muy potente para el aseguramiento de la calidad, especialmente en los diseños que rocen aspectos de seguridad, como es el caso de los equipamientos electrónicos destinados a las industrias aeroespaciales, aeronáuticas, tecnología nuclear, fabricantes de automóviles y camiones, etc. Básicamente, con los FMEAs se busca:

• Incrementar la fiabilidad del producto • Reducir los costos de garantía y de compromiso frente a los clientes • Acortar los tiempos de desarrollo • Lograr una menor susceptibilidad a fallas durante el arranque de la producción seriada • Lograr una manufactura mas económica • Mejorar el servicio postventa

En sus comienzos, el FMEA se planteaba como una herramienta propia de cada etapa: Se

concebía un FMEA para el diseño, y otro para los procesos. El FMEA de diseño supone que el proceso de manufactura es correcto, y recíprocamente. El primero se limitaba a nivel de componente, y el segundo al análisis de algunos pasos del proceso de manufactura. Lo lógico es que el ingeniero de diseño interactúe permanentemente con el ingeniero de manufactura para asegurarse que las especificaciones puedan ser alcanzadas por el proceso de manufactura. Si un componente es muy sensible al proceso de manufactura, y este no se puede cambiar, lo razonable es rediseñar, evitando el uso de ese componente.

Actualmente los FMEA se realizan considerando toda la estructura del sistema. Un sistema consiste en elementos individuales (equipos o módulos), dispuestos de modo jerárquico, cada uno con diferentes funciones o propósitos, que pueden ser diferenciadas en funciones internas (propias del modulo), funciones salientes y funciones entrantes. La falla (F) de un elemento de la estructura del sistema se debe a causas de falla (FC) de elementos subordinados (falla de las funciones entrantes) o a falla propia, y tiene como consecuencia un efecto de falla (FE) de las funciones salientes, o sea, un mal funcionamiento de elementos superiores de la jerarquía. Como cada escalón de la jerarquía se apoya en el FMEA de los elementos subordinados, la exigencia de los FMEA debe extenderse a todos los proveedores de partes o equipos que integran el sistema

1 ver pagina 123

24

Page 33: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 25

Formular un FMEA orientado al diseño implica determinar cuales son los potenciales modos de falla de cada elemento. Esto comprende analizar los modos de falla que históricamente se han dado, los usos y abusos que pueda tener el producto, y tener en cuenta las prácticas de diseño usados en elementos similares. En el paso siguiente se establecerán los potenciales efectos de cada falla, asignándole un índice de severidad (S). En los primeros FMEAs las fallas se distinguían según sus efectos, buscando eliminar todos los riesgos catastróficos y minimizando los riesgos críticos. Para ponderar la gravedad de los efectos de cada modo de falla i se usa un factor de peso Pi, para medir las consecuencias de ese modo de falla, figura 26.

Probabilidad de ocurrenciaMuy poco probablePoco probableProbableAltamente probable

tasa (O )1 ocurrencia en 107 horas1 ocurrencia en 105 a 107 horas1 ocurrencia en 105 a 107 horas1 ocurrencia en 104 horas o menos

Fig.27

Consecuenciasmenores

significativascriticas

catastróficas

Pi1

101000

100000 Fig.26

Luego, para cada falla se estima su tasa de ocurrencia (O), lo cual permite calificar los

eventos como muy poco probables, poco probables, probables y altamente probables, figura 27. La severidad y tasa de ocurrencia determinan el parámetro de criticidad Ci,

Ci = S*O (19) y según sea su valor se definirán las acciones preventivas y correctivas apropiadas. Dado que las consecuencias únicamente se manifiestan si la falla ocurre en manos del usuario, esto implica que, si se realizan tareas de detección previas, el riesgo dependerá de la tasa de detección (D) asociada al método de control. Combinando todos estos valores se define un número de prioridad del riesgo (RPN, risk priority number ), donde (20) DOSRPN **= valor que sirve para determinar la necesidad de mejoras. Este proceso de optimización implicará:

• modificación del concepto de solución, con la finalidad de evitar la causa de falla o bien reducir su severidad

• mejoramiento de la fiabilidad, con la finalidad de minimizar la ocurrencia de la falla • ejorar el proceso de detección para evitar que la falla se traslade al usuario m

Subsistema ..................................... Responsable ....................................... Departamentos involucrados .......................................

SO RP

N

D SO RPND

Num

ero

de p

arte Funcion Modo de

fallaMecanismo ycausa de falla

Efecto dela falla Controles

Accionescorrectivas

recomendadas

Accionescorrectivastomadas

Res

pons

able

Tiem

poas

igna

do

Fecha original ......................................... Fecha revision ......................................... Fig.28

Es decir, la finalidad última del FMEA es concluir con un plan de acción en el que

consten los nuevos objetivos, los rediseños que se deben encarar, los ensayos, las fechas y los responsables. Concluidas las mejoras, se realiza un nuevo FMEA, y esto se repetirá hasta lograr que el nuevo RPN este conforme con los objetivos. A este fin se usan formas convencionales, tal como la indicada en la figura 28.

Finalmente, el producto de la tasa de ocurrencia y la tasa de detección determinaran la proporción residual de partes cuya falla se admite pase al cliente

25

Page 34: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño 26

Ecodiseño La atención del problema ecológico en el diseño implica que en el mismo se considere

críticamente el uso de materiales que dan lugar a desechos tóxicos, y cuando esto sea inevitable, que sea contemplada la forma en que deberán ser abandonados y tratados tales desechos para evitar consecuencias ambientales indeseadas, y no afectar gravemente a las personas o al ambiente. La consideración del problema ecológico como requerimiento fundamental del diseño ha tomado un gran impulso en la última década, especialmente a partir de la declaración de principios emanados de la Conferencia de la Tierra de Rio de Janeiro en 1992.

En electrónica, los desechos pueden aparecer en tres momentos: • Durante el proceso de manufactura, donde los desechos son mayormente plaquetas

defectuosas y todos los materiales residuales de proceso • Durante el mantenimiento, debido al reemplazo de elementos contaminantes • En el momento de la disposición final del producto o equipo, al final de su vida útil. En la fase de manufactura es donde se genera el mayor volumen de desechos, pero es

también la más fácilmente controlable. Algunos desechos electrónicos son reprocesados para recuperar materia prima, como el cobre, y en especial el oro y la plata, dado que estos metales preciosos están presentes en un alto porcentaje en muchos componentes. Esto posibilita que empresas especializadas, especialmente habilitadas y reconocidas, se hagan cargo del reprocesamiento de las plaquetas y otros desechos de manufactura sin agregar costo alguno.

En electrónica se usa intensamente una aleación de estaño-plomo como material de soldadura, a pesar de que el plomo es altamente tóxico y posible causante de daños irreversibles a las personas. Igualmente son dañinos el cadmio, cromo, cobre, berilio, arsénico, litio, mercurio, antimonio, y bismuto, aun en contenidos mínimos. Por ejemplo, en agua es suficiente una fracción de mg/l de cualquiera de ellos para producir afecciones graves. Algunos de estos materiales están expresamente prohibidos, y para otros hay regulaciones para controlar el abandono de aquellos desechos que los contengan. Si bien el empleo de materiales tóxicos es en mayor o menor grado una fuente segura de contaminación, otros materiales o condiciones de diseño son también peligrosos por ser causa de daño potencial, como es el caso de materiales inflamables, materiales nutrientes de hongos, o materiales plásticos que liberen, bajo la acción de la temperatura, gases tóxicos o altamente corrosivos

El problema de la contaminación esta influido por las decisiones del diseño, y por ello muchas empresas tienen políticas para que el desarrollo de sus productos sea ecológicamente correcto. Pueden considerarse así aquellos productos en cuyo desarrollo se hayan seguido algunos de los siguientes requisitos:

• Bajo consumo de energía • Menor uso de materiales perjudiciales para el medio ambiente • Menos gasto de materia prima • Menores desechos, con posibilidad de reciclaje • Menores tamaños de los encapsulados

Estos factores están intervinculados: Un mayor nivel de integración y un aumento de la

densidad implican menor consumo, menores encapsulados, y menor uso de materia prima. Para los encapsulados actualmente se usan nuevos plásticos, denominados de tipo verde, debido a que no usan componentes químicos que agravan el medio ambiente. En el diseño, adicionalmente a los requerimientos medioambientales, se agregan otras exigencias cuya finalidad es evitar toda posibilidad de afectar al operador o ser causa de un daño mayor, como ser:

• Limitar la temperatura de cualquier parte expuesta a no más de 60ºC

26

Page 35: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 27

• No incluir aberturas para la ventilación en la parte superior de los gabinetes • No situar las aberturas para salida de aire caliente en los paneles frontales • No dejar expuesto a un contacto accidental ningún terminal de interconexión que tenga

tensión respecto de masa. Muchas de estas recomendaciones están incorporadas como reglas de diseño, y

especialmente en las grandes corporaciones, más que reglas son expresas imposiciones de diseño. Una buena referencia de estas prohibiciones puede hallarse en diversas especificaciones militares.

Para el control de los procesos de manufactura, la ISO, el máximo organismo de normalización internacional, emitió la serie de normas ISO 14000, que sirven de base para auditar el impacto medioambiental. Pero, además de demostrar el compromiso con las políticas medioambientales establecidas en las normas, la mayoría de las empresas desarrollan planes a mediano y largo plazo con los cuales buscan cumplir diversas metas medioambientales propias. En esa dirección, actualmente se busca eliminar el empleo de algunos metales pesados, como el plomo, y desarrollar soluciones en las que las fuentes de alimentación de los equipos reduzcan el consumo cuando los mismos están en la condición de espera, incorporando dispositivos administradores de energía, denominados PMU ( Power managements units ), los cuales permiten extender la vida útil de las baterías, y con ello ayudan a la reducción de la contaminación. La eliminación del plomo en electrónica se funda en una directiva de la UE que establece la prohibición de su uso a partir del 1 de enero de 2006.

Factibilidad Tecnológica

La idea de analizar una especificación es ver si ésta:

• No tiene falencias referidas al uso, es decir, que pueda haber características o condiciones de uso del producto que no han sido consideradas en la especificación

• Es completa en sus datos, como para llevar a cabo el diseño y su verificación • No tiene incongruencias; es decir, que en distintas partes de la especificación se pidan

cosas contradictorias • Es cumplible

Lo que el proyectista puede interpretar como que es un grado de libertad y pensar por

ello que puede orientar el proyecto de un modo que resulte óptimo desde el punto de vista de la fabricación del producto o de su desarrollo, puede no necesariamente coincidir con lo que es mejor para el uso. Esto significa que cuando hay falencias en la especificación, se debe analizar si esto afecta al usuario del producto, en cuyo caso es necesario que esa parte del requerimiento sea especificada o acordada con el mismo, solicitando una ampliación en la especificación de aquellas características que hacen al empleo del producto. La determinación de estas falencias no es en muchos casos tarea sencilla. Por ejemplo en la especificación del usuario puede no haber ninguna especificación referida a condiciones anormales de uso o de posibles abusos, pero ello no debería inducir al proyectista a suponer que tales condiciones no van a existir.

Se ha dicho que el diseño parte de lo que los clientes requieren, o se establece en algún sector de la empresa, y serán ellos lo que deberán definir las características que debe tener el producto. El problema es que el punto de vista del cliente o del usuario queda expresado como un requerimiento y no como lo que el proyectista necesita para establecer la solución. Eso significa que seguramente los requerimientos van a tener que traducirse en una o un conjunto de especificaciones técnicas, para lo cual ayuda la construcción de la casa de calidad. Hay usuarios que sí tienen claro qué es lo que necesitan: Son grandes integradores, denominados fabricantes OEM ( Original Equipment Manufacturer ), que producen sus equipos con partes y componentes requeridas a proveedores, basándose en normas y especificaciones propias. Si bien toda empresa puede basarse en normas propias, por lo general se usan normas de alcance nacional, regional, o internacional, para atender las exigencias de algún tipo de servicio, o algún tipo de producto.

27

Page 36: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño 28

Cuando las características no estén contempladas en norma alguna, se sobreentiende que son de aplicación para cada sector normas específicas de facto, o las recomendaciones emitidas por entes gubernamentales o por alguna asociación: de fabricantes, o entes profesionales. En un nivel superior, son de aplicación normas emitidas por entes nacionales o supranacionales, como el ISO, el IEC, el ITU, etc. Estos entes emiten recomendaciones, lo cual significa que los países no están obligados a seguirlas. Excepción a ello son los entes de normalización para la comunidad económica europea, tales como el CEC, CEN, CENELEC, ETSI, etc.

Por lo general las especificaciones o normas se arman tratando de que no haya repeticiones, siguiendo una jerarquía e intervinculándolas entre si. Es decir, en vez de repetir definiciones, procedimientos, y métodos de ensayo para cada producto, una norma de tipo general cubrirá las exigencias comunes a todos, y en la especificación de cada producto se considera solo lo que es específico del mismo, y para el resto se refiere a la normal general.

Finalmente, para determinar si una especificación es cumplible se requiere saber si:

• Es posible definir una solución • Se cuenta con capacidad para el desarrollo (acceso al conocimiento, personal

calificado, y equipamiento para el desarrollo y la validación) • Se conocen, o se puede acceder, a los protocolos y estándares de las interfases

con los que el producto se vincula • Hay acceso a la tecnología necesaria (en componentes y procesos ) • Se cuenta con las instalaciones para la manufactura y el control

El análisis de factibilidad puede concluir con dudas sobre la posibilidad de que se pueda tener éxito en la solución, lo cual puede estar limitado a cumplir con algún ítem de la especificación o por otras restricciones, y solo si estas son satisfechas le dan sentido al proyecto. En tal caso se podrá concluir con la recomendación de realizar desarrollos exploratorios, que viabilizarían el proyecto solo si estos resultaran positivos.

Internet como fuente de información Desde el punto del diseño, la red Internet sirve a variados propósitos:

conocer características y precios de productos competitivos , hacer análisis de tecnologías y tendencias tecnológicas acceder a normas o estándares acceder a proveedores de componentes acceder a hojas de datos de componentes realizar búsqueda especifica de componentes acceder a foros de discusión específicos intercambio rápido de información acceso a información confidencial detallada de productos, que si bien es no oficial y su

uso no esta autorizado, es útil para conocer detalles de diseño usado por competidores acceso a programas (software ) de uso libre

Esto convierte a la www en una importantísima herramienta de ayuda para el diseño. Hallar la respuesta a muchos problemas en la mayoría de los casos se limita simplemente a efectuar un click. Es sorprendente la cantidad de información disponible libremente vía la www. Las dos posibles formas de acceso son :

realizando una búsqueda temática o por tipo de servicio, equipo o dispositivo, para lo cual hay disponibles buscadores específicos

acceder a la pagina de algunos de los fabricantes conocidos

En el primer caso se entrara con una o conjunto de palabras claves, en el segundo con el nombre de alguno de los fabricantes conocidos. Normalmente, la forma mas obvia es casi siempre la adecuada.

28

Page 37: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Proceso de diseño 29

Responsabilidad legal El diseñador se debe cuidar de cometer errores que puedan volver inseguro el uso del producto, en cualquiera de las fases de su ciclo de vida. Hay dos tipos:

• Errores por omisión, que involucra no haber previsto una situación crítica • Errores por comisión, habiendo previsto el problema, se adopta una solución equivocada

Los errores de diseño se evitan, o cuando menos se reducen, formulando FMEAs,

diagramas de árbol de fallas y de causa-efecto2 desde las etapas mas temprana del proyecto. De todas las posibles fuentes de error, especialmente se deben analizar las debidas al error

humano. Esto implica determinar si se pueden generar situaciones peligrosas en las fases de instalación, operación o mantenimiento, como consecuencia de la interacción persona-equipo.

Básicamente los daños pueden resultar de: • Accionamientos inseguros ( debidos básicamente a error humano ) • Condiciones inseguras (por fallas del equipo o defectos de concepción o diseño)

Supongamos que se debe definir como accionar las pinzas de un robot. Podría pensarse en

dos alternativas: Pinza normalmente cerrada, al activarse se abre y toma la pieza, o normalmente abierta, que se cierra para tomar la pieza. En el primer caso, un corte de energía retiene la pieza, mientras que en el segundo la suelta; no considerar las consecuencias seria un error por omisión.

Una situación similar se da para el acceso a la parte interna de un equipo dentro del cual hay altas tensiones, o partes en movimiento. Según el peligro, las alternativas serán colocar carteles de advertencia, dificultar el acceso, o disponer de seguros de puerta o de acceso tales que si se destraba o abre una puerta o tapa que da acceso a partes peligrosas, automáticamente el equipo se desenergiza. En ciertos casos, el acceso solo debería ser posible pasado un temporizado que garantice que el peligro ha desaparecido: por descarga de capacitores, frenado de las partes móviles, etc.

Análisis de caso: Un estudio jurídico de California presento una demanda contra las empresas Palm y 3Com, grupo al cual pertenecía en aquel momento Palm, debido a que una característica destinada a sincronizar datos entre los dispositivos de mano Palm y las PC podía causar daños en la PC, obligando al usuario a tener que cambiar la placa madre de la PC. La demanda alegaba que dichas empresas no advirtieron a los usuarios que la característica HotSync que tienen los dispositivos de Palm puede desactivar el puerto serie en algunas

arcas de PC. m Ciertos equipos requieren la realización de homologaciones por parte de entes externos, gubernamentales o independientes, previo a la comercialización, tal el caso de equipos electromédicos; en otros casos, puede ser requerida una autorización para su uso, como ser equipos de radiocomunicaciones. Pero, aun no existiendo regulaciones gubernamentales, es importante atender los requerimientos derivados de normas en el área específica que corresponda. La consulta de normas especificas nacionales o internacionales como las ISO, las normas del IEC, o de la UIT, o normas de seguridad aplicadas en otros países pueden servir como referencia, tales como las normas DIN, las BS, las AFNOR, las AENOR, etc. Especialmente deberán analizarse posibles problemas derivados de la falla o mal uso, y documentarse la realización de ensayos propios y por parte de terceros que atiendan estos aspectos. Esto si bien no exime de responsabilidad frente a daños a terceros, la existencia de ensayos y controles de proceso puede ser un factor atenuante.

Si bien siempre la responsabilidad primaria es del fabricante, solidaria con ésta, esta la del proyectista, sobre el cual recae la responsabilidad mayor de la aprobación de los planos. La responsabilidad puede ir más allá de la existencia de daños derivados del uso; este seria el caso, por ejemplo, cuando se falsea una especificación, o el resultado de una prueba.

2 ver paginas 123 y 208

29

Page 38: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA : Proceso de diseño 30

Ética Profesional Se define como ética profesional al conjunto de principios que regulan la conducta de las personas en sus actividades profesionales, de modo que ésta se ajuste a lo que la sociedad acepta como moralmente correcto. Es decir, cuando el ingeniero propone soluciones, en las mismas siempre debe hacer prevalecer el interés general. Casi todas las asociaciones profesionales, independientemente de las regulaciones propias del ejercicio de la profesión, emiten códigos de ética. Los códigos de ética son recomendaciones que los ingenieros debieran cumplir y respetar en el ejercicio de su profesión. Los códigos tratan problemas comunes como competencia, confidencialidad, conflicto de intereses, etc. y estimulan la conducta ética, sirviendo además de guía en cuanto a las obligaciones del ingeniero; además, engrandecen la imagen pública de la profesión y promueven el profesionalismo. Existen muchos códigos de ética dentro de la Ingeniería. En general, cada especialidad adopta el suyo, pero algunas organizaciones engloban a varias disciplinas, como es el caso de la NSPE (National Society of Professional Engineers) de los Estados Unidos. La NSPE establece las normas de conducta para todos los ingenieros, y es tan importante que los principales elementos de su código de ética se convirtieron en ley en muchos estados norteamericanos. A continuación se

estacan los artículos más importantes de dicho código: d I . Los ingenieros, en cumplimiento de sus deberes profesionales deberán:

• • • •

Preservar la seguridad, la salud y el bienestar del público. Prestar servicio sólo en las áreas de su competencia. Realizar declaraciones públicas en forma objetiva y veraz. Actuar de manera profesional con empleados y clientes.

II. Obligaciones profesionales

Los ingenieros admitirán sus equivocaciones y errores, absteniéndose de distorsionar o alterar los hechos para justificar sus decisiones. Los ingenieros deberán advertir a sus clientes o empleadores cuando crean que un proyecto no será exitoso. Los ingenieros no participarán en huelgas, piquetes u otras acciones colectivas coercitivas. Los ingenieros evitarán cualquier acto tendiente a promover sus propios intereses a expensas de la dignidad e integridad de la profesión. Los ingenieros no firmarán, aprobarán o sellarán planos y/o especificaciones de un diseño que sea perjudicial para la salud pública y el bienestar general. Si clientes o empleadores insistieran con esa conducta no profesional, el ingeniero deberá notificar a la autoridad que corresponda. Los ingenieros no utilizarán equipamientos, laboratorios u oficinas para llevar a cabo prácticas privadas sin consentimiento. Los ingenieros, cuando empleen a otros ingenieros, ofrecerán salarios de acuerdo con las calificaciones profesionales de los interesados.

Otro buen ejemplo lo constituye el código de ética propuesto por el IEEE, el cual se

puede bajar de Internet de la pagina de dicha entidad, o simplemente valiéndose de cualquier buscador usando como clave de búsqueda “IEEE code of ethics”. Este código también se encuentra en castellano en la página de la rama estudiantil IEEE de la PUCP, a la cual se puede acceder entrando para la búsqueda con “codigo de etica del IEEE”.

30

Page 39: Libro Materia

Requerimientos

Definición de ProductoEspecificaciones

Estudio deFactibilidad Tecnologica

Factibilidad deTiempos

Factibilidadfiananciera

FactibilidadEconomica

ReconocimientoNecesidad

Planificación y Programación

Cualquier cosa que pueda cambiarse será cambiada hasta que no quede tiempo para cambiar nada

ARTHUR BLOCH ( “El libro completo de las Leyes de Murphy”)

Garantizar el éxito del desarrollo no depende solo de que el estudio de la factibilidad

técnica concluya positivamente, es decir, que se haya demostrado que la solución es alcanzable y que se cuenta con los recursos necesarios y capacidad de desarrollo, o bien que se tiene acceso a la misma. Un proyecto exitoso no se limita solamente a cumplir con los requerimientos técnicos: El tiempo y el resultado económico son otras variables a considerar. Muchos proyectos fracasan por inadecuada estimación del mercado o de los atributos que debiera tener el producto antes de comenzar con su desarrollo, y en otros porque:

• No se cumplen los requisitos o criterios de selección • No se cumplen los requerimientos de progreso en una etapa de revisión o control • El prototipo desarrollado no satisface los requerimientos del mercado • Se han gastado recursos que van mas allá del punto en el que se justifica

económicamente el desarrollo Es por tanto importante demostrar que el proyecto es no solo técnicamente factible,

sino que además económicamente tiene sentido, y se cuenta con capacidad técnica y financiera para afrontar su desarrollo, y que además la solución puede lograrse en un tiempo razonable. Todo esto conforma el anteproyecto o estudio de prefactibilidad, figura 1.

Para realizar el estudio de factibilidad es necesario contar con una estimación de los

recursos necesarios para la ejecución del proyecto. Para ello, primero habrá que definir como se organizara el desarrollo, y formular luego planes para el diseño de cada etapa, estableciendo metas para cada una que permitan luego un control eficaz de su progreso y efectividad.

El esfuerzo de planificación es una parte importante del esfuerzo total del proyecto, figura 2, ampliamente justificado porque con el mismo no solo se demuestra que las metas pueden ser cumplidas, sino que además permite lograrlo con un menor esfuerzo total. Es por ello que las normas ISO exigen que los proyectos estén apoyados en un plan, definiendo al plan de proyecto como “un documento en el cual se expresan las prácticas especificas, los recursos y secuencia de actividades requeridas para cumplir con los objetivos del proyecto”.

Fig.2 Fig.1

esfu

erzo

($)

tiempofase I b fase II fase III fase IV

conceptualizacion planificacion ejecucion documentacion

Page 40: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

32

32

Planificación Antes de ponerse a resolver los problemas planteados en el proyecto se necesario

delinear un plan. Recién después de trazado el plan, se elaborara un programa de trabajo. Con la planificación se busca determinar qué tareas hay que hacer, qué recursos son necesarios para ejecutarlas, y en que orden deben ejecutarse. En la elaboración del programa se parte de recursos definidos con algún criterio, y se busca establecer un tiempo calendario, indicando el momento en que se debe comenzar y se debería terminar cada tarea, asignándole los recursos y definiendo los responsables de las mismas. Un programa es, entonces, solo una posible forma de ejecución del plan.

Es decir, en la planificación no interviene el tiempo calendario, tan solo toma en cuenta el tiempo de duración de las tareas, pero no está dicho en qué momento se van a ejecutar, ni de que forma se va a trabajar; en el programa sí. De la planificación surgirá por ejemplo que se requieren X horas para ejecutar una tarea. El programa toma en cuenta las horas de trabajo diario, la existencia de feriados, días de descanso semanal, periodo de vacaciones, etc. Esto implica que la duración establecida en la planificación debe ser multiplicada por un factor que tome en cuenta el número de horas efectivas de trabajo anuales, por lo cual la duración puesta en tiempo calendario se ve incrementada entre 4 y 5 veces.

Algunos piensan que la planificación es una pérdida de tiempo, considerándola una actividad totalmente prescindible. Esto, que puede ser cierto cuando se trata de tareas simples, deja de serlo cuando se trata de desarrollar productos en los que están implicadas múltiples tareas y sectores. En el primer caso será suficiente trazar un plan de acción. En el segundo caso son necesarias herramientas específicas para la coordinación, el control y la revisión. La planificación obliga a fijar claramente los objetivos que se deben alcanzar, que existan recursos para satisfacerlos, y que estén contemplados esfuerzos dedicados a la revisión, evaluación de progreso, y el control.

La planificación determina el proceso para llevar a cabo el proyecto del modo más eficiente y efectivo, para cumplimentar el propósito planteado. Busca definir el que, el donde, el como, el porque y a que costo. Para ello es necesario:

1. Definir las metas generales 2. Trazar un plan de tareas 3. Desarrollar en detalle los alcances 4. Asignar objetivos para cada actividad 5. Relacionar las actividades mediante una red lógica 6. Establecer la duración y demoras de cada actividad 7. Verificar la consistencia de la red 8. Determinar la necesidad de recursos para cada actividad

La planificación se hace usualmente sobre la base de recursos infinitos, con la

finalidad de determinar el menor tiempo en que podría ejecutarse el desarrollo. Trabajar con recursos infinitos significa que se puede poner tanta gente a trabajar en el proyecto como sea necesario y posible, y que se cuenta además con todo el soporte que sea requerido. La variante extrema a esta opción sería hacer el desarrollo aprovechando recursos libres. Ahora bien: ¿Quién decide como debe ejecutarse el proyecto? En función de los estudios de factibilidad y planes estratégicos, la dirección de la empresa determinará la forma apropiada de ejecución, es decir, el soporte que va a tener el proyecto, en base al cual se hará el programa de trabajo.

Entre las actividades necesarias deben incluirse los mecanismos de control y monitoreo de perfomance. Esto implica incluir actividades tales como informes de progresos, de aseguramiento de la calidad, de control de costos, etc.

Para poder establecer la carga de trabajo, el esfuerzo global debe partirse en esfuerzos menores, y estos a su vez nuevamente deben descomponerse, de modo que se va conformando

Page 41: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

33

33

una estructura de partición del trabajo, una WBS ( Work Breakdown Strcuture ), hasta un nivel en que pueda determinarse la carga de trabajo y los recursos requeridos.

Las dos herramientas usuales para la planificación son el CPM (Critic Path Method), método del camino crítico, y el PERT (Program evaluation and review technique ), o técnica de evaluación y revisión de programas. El CPM, orientado a actividades, trabaja con tiempos determinísticos, considera que la fluctuación en la duración de las tareas es despreciable. El PERT esta orientado a eventos, y, por trabajar con tiempos aleatorios, es más apropiado para la planificación de proyectos, en los que se supone que al menos alguna de las tareas no se realizo nunca, ni es simple, ni su solucion es directa, y que además exige esfuerzos de creatividad difíciles de cuantificar en tiempo. Esto lleva a suponer que su duración no puede ser precisada exactamente, pero, como todo proyecto requiere que sea determinado su tiempo de ejecución, es necesario contar con una herramienta que ayude para esa determinación.

Método del camino critico

Para mostrar la dependencia entre tareas se construye el denominado grafo o diagrama de flechas, donde cada tarea se asocia a una flecha, y su sentido marca la progresión de su ejecución; convencionalmente todas las flechas van desde la izquierda a la derecha. Su ubicación en el grafo determina que tareas previas deben estar ejecutadas para poder comenzar una dada tarea. La finalización de ciertas tareas marca a su vez un evento o hito importante en el proyecto. Un hito significa alcanzar algún logro importante. Cada hito esta asociado a un nodo, indicado por un círculo, y cada tarea a una flecha. La longitud de la flecha es arbitraria; lo que importa es su sentido. Si alcanzado un hito, dos o mas tareas pueden ser ejecutadas simultáneamente respecto a otra u otras, esto se representara por flechas en paralelo, figura 3. Debajo de la flecha suele ponerse un nombre que describe la tarea, y encima de la misma su duración.

El grado de desglose que se tiene que hacer en las tareas, debe ser lo suficientemente

amplio como para poder definir o estimar su duración, la cual, bajo el supuesto de recursos infinitos, será el menor valor posible.

Supongamos por ejemplo que la primer tarea t1 requiere 23 h (horas) para ser completada, la tarea t2 17 h, y así sucesivamente, figura 4. En función de esto se puede computar el tiempo que debe transcurrir para lograr un evento dado a contar desde el arranque del proyecto. La carga de trabajo dependerá de la cantidad de personas involucradas; vale decir, es necesario diferenciar entre la duración de la tarea y la carga medida en horas-hombre. Si en la tarea t1 intervienen dos personas, la carga será de 46 HH (horas-hombre). Alcanzado el nodo 2 pueden ser ejecutadas tres tareas en forma simultánea, t2, t3 y t4. Podría ser, por ejemplo, que la tarea t2 requiriese 1 persona ( 17 HH ), la t3 3 personas ( 30 HH), etc.

Como vemos, en este diagrama no hay ningún calendario. Recién después de tener las directivas del directorio se realizará el programa de trabajo, con un calendario que estará vinculado a los criterios definidos para la asignación de recursos.

El diagrama puede incluir tareas ficticias, indicadas en punteado, tareas de duración nula, como es el caso de la tarea t5, indicada en la figura 5a. Su finalidad es respetar las reales

Fig.4 Fig.3

tarea

evento

1 5432tarea t1 tarea t5

tarea t4

tarea t2

tarea t3 tarea t6

23

66

721510

17

Inicio Final

Page 42: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

34

34

restricciones de precedencia. Si no se incluyeran, se alteraría el camino crítico o restringiría innecesariamente la asignación de recursos. Por caso, si se hicieran coincidir los nodos 3 y 4, como indica la figura 5b, se agrega como restricción de precedencia implícita para la tarea t6 las tareas t2 y t3, mientras que en el caso de la figura 5a, al haber incorporado la tarea ficticia t5, para ejecutar la tarea t6 solo se necesita tener concluida la tarea t4.

La tarea ficticia sirve también para diferenciar nodos a los efectos de simplificar su

tratamiento por computadora, cuando se quiere identificar a las tareas por los nodos que vinculan, figura 6a, b. Esto ocurrirá cuando las distintas tareas partan y concurran a los mismos nodos; es decir, el nodo 6 para el caso indicado en la figura 6c seria innecesario.

Para completar el proyecto es necesario realizar el total de las tareas, muchas de ellas

simultáneas. Por tanto, para hallar el tiempo de ejecución se debe hallar cual es el mayor de los tiempos requeridos para ejecutar las tareas sucesivas de cada uno de los distintos caminos que vinculan el inicio y final del proyecto. Ese es el denominado camino crítico. Si la ejecución de alguna de las tareas de ese camino se prolonga, el proyecto se va a retrasar en igual medida. Por ello, las tareas incluidas en el camino crítico son las tareas críticas del proyecto, es decir, las que más deben controlarse.

El método CPM aunque no es la herramienta adecuada para la planificación de proyectos, es útil para introducir el concepto de camino crítico y de holgura o margen de una tarea. Si se observa la figura 5a se ve que el inicio de la tarea t2 se puede retrasar sin afectar para nada la duración del proyecto. Se dice en tal caso que la tarea tiene una holgura. En otras palabras, siempre, cualquiera sea la tarea, habrá un tiempo más tardío en que se debe empezar a ejecutar para no prolongar la duración del proyecto. Es decir, en el caso de la figura 5a, la tarea t2 debe comenzar a mas tardar a las 32 horas de iniciado el proyecto; de no ser así, su retraso de ejecución se trasladara directamente a la duración del proyecto.

Márgenes de las tareas

Todas las tareas no incluidas en el camino crítico, ubicadas en ramas paralelas a las tareas del mismo, cuentan con márgenes para su ejecución. Este es el caso de la tarea t2 de la figura 5a, teniendo el momento de inicio mucho margen para fluctuar en el tiempo sin que ello afecte la duración del proyecto.

Cualquiera sea la tarea vemos que aparece un tiempo mas temprano en que puede ser ejecutada, el cual dependerá de la terminación de las tareas que le preceden. Hay también un tiempo más tardío para comenzar su ejecución, el cual depende del tiempo en que deben ser ejecutadas las tareas que le siguen para no afectar la duración del proyecto. Por caso, el proyecto al que corresponde el grafo de la figura 5a tiene una duración mínima de 125 h, y al

Fig.6

Fig.5

a) c) b)

a) b)

4

6

4545 5

6

7

tarea B

tarea A

tarea 4-6 tarea 6-7

tarea 6-7tarea 4-5

tarea 6-5tarea 4-6

tarea 4-5

321

4

5 610

60 2530

50

016

38

tarea t1

tarea t2

tarea t4

tarea t6

tarea t7 tarea t8

tarea t5

tarea t3 321 5 610

60 2530

5016

38

tarea t1

tarea t2

tarea t4 tarea t6

tarea t7 tarea t8tarea t3

Page 43: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

35

35

t

Duración de la tarea jHolgura total

t1 t2Inicio mas temprano Terminación mas tardía

t3

t

Duración de la tarea jHolgura libre

t1 t2Inicio más temprano

t4Comienzo más tempranode las tareas siguientes

Terminaciónmás tardía

Terminaciónmas tardía delas tareasprecedentes

Terminación mas tardía

t

Duración de la tarea jHolguraindependiente

t1 t2Inicio mas temprano

t4

Comienzo mas tempranode las tareas siguientes

t5

evento 5 se debe llegar como muy tarde a las 125 h menos las 25 h que demanda la tarea t8. Por tanto, el inicio más tardío de la tarea t6 será la hora 50 a contar del inicio del proyecto.

Supongamos una tarea j cualquiera que no pertenece al camino crítico, y que sea t1 el

momento más temprano en que la misma se puede comenzar, figura 7, y que sea t2 el momento más tardío en que debe finalizar para no comprometer la duración del proyecto. Estos instantes t1 y t2 se obtienen adelantando las tareas que preceden a la tarea j y postergando las que le siguen tanto como sea posible. Si a la diferencia t2-t1 se le descuenta el tiempo de duración de la tarea, se obtiene la máxima holgura, o margen total, que puede tener. Esto define el instante t3 como el momento más tardío en que debe ser iniciada la ejecución de la tarea j para no modificar la duración total del proyecto.

El margen total de una tarea j supedita la ejecución de las demás tareas para lograr que el margen de esa tarea j sea máximo. Si solo se restringe el inicio de las tareas que anteceden a la tarea j, se habla de un margen libre. Esto supone que todas las demás, incluidas las tareas que siguen a la j, se inician también lo más temprano que se pueda. Suponiendo que ese instante fuera el t4, figura 8, entonces el margen libre se obtiene descontando a (t4-t1) el tiempo de duración de la tarea j.

Si las tareas que anteceden a la tarea j se iniciaran lo más tardíamente posible, cuidando de no afectar la duración total del proyecto, esto nos lleva al instante t5, figura 9. En el caso límite, teniendo en cuenta también que las tareas que siguen se inician lo más temprano posible (tiempo t4), resulta un margen independiente de las demás tareas, el cual se obtiene restando del valor (t4-t5) la duración de la tarea j.

Determinar la fluctuación de cada tarea es importante a los efectos de la asignación de recursos, dado que la nivelación de estos en el tiempo es siempre una condición deseable. Los márgenes y el camino crítico pueden ser hallados cuando se tiene definida la red PERT. Para ello se hallan los tiempos más tempranos en que se pueden comenzar las tareas que siguen, partiendo desde el evento inicial. El resultado se pone encima de cada evento, figura 10. Se calculan luego los tiempos más tardíos en los cuales debe comenzarse cada tarea para completar el proyecto en tiempo, para lo cual se parte del evento final y se va hacia atrás. El resultado se pone debajo de cada evento, figura 11.

Aquellos nodos en los cuales sean coincidentes los tiempos de inicio mas temprano y tardío, implica que al menos una de las tareas que se desarrollan entre esos eventos no tiene margen alguno, y por tanto esos nodos pertenecen al camino critico. De haber diferencia entre los valores de estos tiempos, en base a la misma y a la duración de la tarea se puede determinar el margen disponible para esa tarea.

Fig.8 Fig.7

Fig.9

Page 44: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

36

36

(3)

(1)

Existen varios paquetes de software para el análisis CPM y PERT. Entre los más difundidos deben mencionarse el Primavera Project Planner y el Microsoft Project. Este último, si bien tiene una capacidad limitada, es normalmente suficiente, y es además uno de los más económicos y simples de usar.

Técnica de evaluación, programación y revisión (PERT)

Presupuestar y fijar tiempos para el desarrollo resulta difícil porque, en general, se trata de tareas de tipo intelectual, donde juegan aspectos creativos, con tareas que implican generar proposiciones, hacer pruebas, refinar soluciones, desarrollar programas, etc. Pero la dirección de la empresa necesita contar con elementos precisos para decidir si conviene o no desarrollar el proyecto, y el tiempo y el costo son elementos importantes de decisión. Lo que se sabe es que las tareas comenzaran en algún momento, y que, suponiendo el mejor de los escenarios, no podrán concluirse antes de una determinada fecha, un tiempo optimista, y para el peor escenario se concluirán en algún otro momento posterior, un tiempo pesimista. El tiempo efectivo será un valor aleatorio entre ambos límites, presumiblemente cercano a un tiempo más probable de duración, que habrá de estimarse.

Se ha encontrado que la función beta es un buen modelo de distribución para tratar esta incerteza, por ser una función muy amoldable: variando sus parámetros la función asume formas diversas. La función Beta normalizada se define para un rango de valores entre cero y uno; vale decir, la función de densidad es cero para valores menores que cero y para valores mayores que uno; entre cero y uno la función de densidad responde a una expresión del tipo

qp xxkxf )1.(.)( −= donde el valor de la constante k debe ser tal que

∫ =1

0

1).( dxxf

La expresión (1) es utilizada en general en todos los textos dedicados a la planificación. Esta expresión difiere de la forma en que los matemáticos definen la función beta,

( ) 1)1( 1..)( −− −= βα xxkxf Ambas formas son equivalentes si se toma

11

+=+=

qp

βα

Esta equivalencia deberá tenerse en cuenta cuando se recurra a herramientas como Matlab, o a la planilla de cálculo Excel. En ambos casos, la función de densidad Beta es definida en base a la expresión (3). Los parámetros p y q de la función Beta están sujetos a la condición de que α y β no sean negativos. Según sea su valor será la forma de la función, tal como puede observarse en la Figura 12.

Fig.11

(2)

(4)

Fig.10

321

4

5 610 60 2530

50

016

38

tarea t1

tarea t2

tarea t4

tarea t6

tarea t7 tarea t8

tarea t5

tarea t3

125100

26

700 10321

4

5 610 60 2530

50

016

38

tarea t1

tarea t2

tarea t4

tarea t6

tarea t7 tarea t8

tarea t5

tarea t3

125100

26

700 10

1250 10

50

70 100

Page 45: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

37

37

(8) (9)

Al ser asimétrica, para su caracterización estadística habrá que considerar la moda

además del valor medio y la varianza, valores todos ligados a los dos parámetros de la función,

)1()(.

22

+++=

+=

βαβαβασ

βααµ

( )

( ) ( )111

moda −+−−

=βα

αx

Definidos los tiempos optimista ( to) y pesimista (tp), queda definido el intervalo de

incerteza, relacionado con el intervalo de existencia de la variable beta normalizada x, figura 13, en la forma,

).( opo

op

o

ttxtt

tttt

x

−+=

−−

=

Determinar los parámetros α y β del modelo con los únicos datos disponibles (las tres estimaciones, to, tm, tp ) no es posible, y aunque bastaría con otra suposición adicional, convencionalmente se agregan dos supuestos más, el tiempo medio y la varianza del modelo, que se ligan a las tres estimaciones anteriores. Como el tiempo medio es un valor comprendido entre to y tp y cercano a tm, se lo establece suponiéndolo como una media ponderada de los tres tiempos, siendo convencional asignar a tm un peso 4 veces mayor, es decir

6.4 pmo ttt

t++

=

y además se considera como un hecho imposible que el rango supere en más de 6 veces el desvío estándar, o sea, en el limite

2

6)var( ⎟⎟

⎞⎜⎜⎝

⎛ −= op tt

t

Como el modelo tiene dos parámetros solo podrán cumplirse dos de las tres condiciones ( µ, σ, xmoda ). Si se supone que las expresiones (10) y (11) definen exactamente los valores medios y la varianza, reemplazando estos valores (normalizados) en las expresiones (5) y (6), se pueden obtener los valores de los parámetros para ese supuesto,

[ ]1).(36. 2 −−= µµµα

⎟⎟⎠

⎞⎜⎜⎝

⎛−= 11.

µαβ

y de ellos derivar los valores de p y q en base a las expresiones (4).

Fig.13

(12)

(13)

(5) (6) (7)

(11)

(10)

Fig.12

t

0 x 1

0 to t tp

Page 46: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

38

38

Fig.14

Esta solución vuelve coherentes las expresiones (5) y (6) con las (10) y (11), pero tiene como limitación que el valor de la moda difiere del valor del tiempo más probable supuesto. Otra alternativa de solución seria respetar los valores estimados de la media y de la moda, y vincularlos con los parámetros de la función Beta. En este caso la moda concordara con el valor del tiempo mas probable supuesto, pero la varianza diferirá del valor estimado en base a la expresión (11). El modo más simple de considerar esta alternativa consiste en adoptar

4=+ qp

aprovechando que bajo esta condición la expresión (10) lleva a un error nulo en el valor medio cualquiera sea el valor de p, como se observa en la Figura 14, y la varianza se aproxima al valor dado por la expresión (11), tal como muestra la figura 15.

Como además el tiempo mas probable tm marca el sesgo de la curva, y por lo tanto la relación entre p y q, o lo que es igual entre α y β, por lo que si se tiene en cuenta que bajo la condición

kqp =+ fijando un valor para k, de acuerdo a la expresión (7), la moda ( xm ) variara con p en la forma

kpx m =

o lo que es equivalente, mxkp .=

Fijando entonces k=4, para estar dentro de la aproximación (10), y teniendo en cuenta (15), resulta

op

om

tttt

p−−

= .4

y por (14)

op

mp

tttt

q−

−= .4

Dada la poca diferencia entre los distintos métodos de cálculo, y el carácter estimativo implícito, la mayor simplicidad hace aconsejable emplear esta última aproximación.

(16)

(17)

(18)

(19)

Fig.17

(15)

0 0.2 0.4 0.6 0.8 1-20

-10

0

10

20

p/p+q

erro

r(%

)

p+q=5

4

3

0 0.2 0.4 0.6 0.8 10.01

0.02

0.03

0.04

p/(p+ q)

varia

nza aprox im ac ion

teoric a

Fig.15

(14)

Page 47: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

39

39

Estimación de tiempos y recursos

Estimar los tiempos optimista, pesimista y más probable implica tener claramente identificada cada tarea, y definido exactamente que es lo que debe hacerse en su ejecución. Esta identificación no puede ser algo tan vago y etéreo como por ejemplo desarrollo de soft, o desarrollo de circuitos impresos; deben existir elementos de base concretos que permitan evaluar los tiempos en que pueden ser alcanzados los objetivos. Ayuda en ello contar con una descripción de las operaciones que deben desarrollarse, los resultados que deben obtenerse, y una medida estimada de la complejidad, como ser las líneas de código estimadas para un programa, dispositivos y cantidad de pines a interconectar en un circuito impreso, etc. La dificultad esta en que estas estimaciones no son sencillas en una etapa temprana del proyecto, pudiendo aplicarse en tal caso como alternativa:

• Consulta de expertos • Técnicas de modularización. Todas las tareas son siempre una combinación de

actividades varias; algunas tendrán poca incertidumbre y en otras habrá gran incerteza. Se trata, diferenciándolas, de reducir lo mas que se pueda la incertidumbre

• Resultados históricos, recurriendo a una base datos o paralelismos con actividades similares desarrolladas anteriormente

• Estimación paramétrica, en la cual se puede tratar de relacionar la duración con algún parámetro ( por ejemplo, la duración en el desarrollo de un software con la cantidad de líneas, y estas con la cantidad de operandos y operadores )

• Técnica de Delfos1

Basándose en diferentes estimaciones de duración de cada una de las tareas, con datos obtenidos en forma independiente entre si, es posible hacer una mejor estimación de los tiempos optimista, pesimista y más probable, tal como muestra la figura 16.

Para estimar los recursos será necesario tener una descripción de cada tarea y de como se llevara a cabo su ejecución, a los efectos de poder determinar los recursos de ingeniería, de técnicos, o del recurso humano que sea necesario, y a ello se deben agregar los demás recursos requeridos para cumplimentar la tarea: componentes y materiales, espacio físico e instalaciones, el instrumental, y todo soporte que se aprecie necesario. Es decir, además del tiempo que se supone demandara el desarrollo, es necesario indicar la cantidad de personas comprometidas en cada tarea. Estos valores se integran a una planilla, en un cuadro similar al siguiente: Esta planilla, útil para construir el PERT, también lo es para la asignación de recursos (programación) y para realizar los estudios de costeo y de factibilidad económica.

1 ver pagina 100

Fig.16 tiempoto

tptmp

estimacion 1

estimacion 4

estimacion 3

estimacion 2

Duración PersonasTarea Precedente Descripción

to tm tp

Componentes ymateriales

Exigencias deespacio

Instrumental ...........

Page 48: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

40

40

Estimación de la duración del proyecto

Contando con la duración de las tareas y los recursos humanos que demanda su ejecución se debe establecer el tiempo de duración del proyecto en base a las tareas que integran el camino crítico. La respuesta no es sin embargo única, dado el carácter probabilístico que tiene la duración de las tareas, por lo que su determinación dependerá del nivel de riesgo que se adopte para la estimación.

Supongamos determinado el diagrama PERT, y estimado los tiempos de cada tarea. Partiendo del inicio habrá seguramente todo un conjunto de caminos, o sucesión de tareas a ejecutar hasta la conclusión del proyecto. La ejecución de las tareas de cada uno de esos caminos, cualquiera que se elija, demandara un tiempo que será igual a la suma de las duraciones de todas las tareas que integran ese camino,

∑=jij tT

camino

donde, cada una de las ti es una variable aleatoria. Ahora bien, es sabido que la distribución de la suma de muchas variables aleatorias tiende a una distribución normal, si todas tienen similar incidencia. Esto permite conocer el tiempo que lleva la ejecución de las tareas de un camino j como suma de los valores medios de cada tarea más un tiempo que contemple la incerteza. Este tiempo es función del desvío estándar de la duración de las tareas de ese camino j y de un factor zα, fractil de 1-α, que depende del riesgo α que se acepte para la estimación, o sea

jjj

jentareasij zTztT σσ αα .. +=+= ∑

donde, teniendo en cuenta (11),

⎟⎟

⎜⎜

⎛−== ∑∑

jentareasoipi

jentareasij tt 22 )(.

61σσ

El riesgo α es la probabilidad de que no pueda concretarse el proyecto en el tiempo estimado por (21). Este riesgo esta dado por el área bajo la curva de densidad, figura 17, desde ese valor Tj a infinito.

Entonces, cuando se requiere saber cuál es el tiempo que puede llevar la concreción de

todas las tareas del camino j, esto admite muchas respuestas, dependiendo del riesgo α que se quiera asumir. Por ende, un valor sin especificación de riesgo carece de sentido. Tampoco tiene sentido operar con riesgos menores al 5%, dado que se parte de datos estimados.

Prefijado un riesgo, se puede determinar la duración para los distintos caminos, y evidentemente la duración del proyecto quedara determinada por el camino de mayor duración, el cual pasa a ser el camino crítico. Pero, si se adoptara otro riesgo puede resultar otro camino crítico, tal como muestra la figura 18, en la cual se indican las funciones de densidad de dos caminos, el i y el j. Para un riesgo del 50%, el camino crítico es el j. Si en cambio se plantea un riesgo del 10%, el camino crítico sería el i. Esto muestra lo inconveniente de trabajar con valores medios, que corresponden a un riesgo del 50%.

(20)

(21)

(22)

Fig.18 Fig.17

Tj t

Esta área mide elriesgo

Tjmedio = Tj

f(t)

Tci50% Tcj50%

Tcj10%

Tci10%

Page 49: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

41

41

Simulación de Monte Carlo

La salida de cualquier proceso resulta de combinar una o varias entradas, figura 19. Caracterizado el proceso, si las entradas son conocidas también lo será la salida. Si las variables de entrada tienen carácter aleatorio, también tendrá ese carácter la salida, y en tal caso solo cabe hacer una caracterización probabilística de la salida, si son conocidas las distribuciones a las que responden las entradas. Si se trata de pocas entradas, y cada una solo puede asumir unos pocos valores, se puede proceder por cálculo directo. Pero, cuando se tienen muchas variables, que pueden tomar un rango amplio de valores, es conveniente recurrir a la simulación de Monte Carlo.

La simulación de Monte Carlo busca dar solución a un problema mediante el

muestreo del proceso al azar. Con ello se quiere significar que se deben analizar las salidas correspondientes a un número de entradas n, debiendo cada combinación considerarse una cantidad de veces suficiente como para que todas tengan posibilidad de aparecer. Es decir, la simulación busca generar muestras al azar de entradas cuyas distribuciones son conocidas, y conocida la vinculación de la salida con las entradas, obtener distintas muestras de la salida.

Las posibles entradas aleatorias se obtienen generando números aleatorios que responden a una distribución uniforme, los que luego se transforman a la distribución de interés. La transformación se basa en que el área bajo la curva de la función de densidad siempre debe valer 1, propiedad que debe conservarse en la transformación, figura 20, o sea,

dzzfdxxf zx ).().( = donde fx(x).dx es la probabilidad de que x se encuentre entre x y x+dx, y fz(z).dz es la probabilidad de que z se encuentre entre z y z+dz. Supongamos por ejemplo que x responda a una distribución normal N(0,1) y z a una distribución uniforme definida en el intervalo (0,1). En tal caso, la propiedad anterior significa que, considerando un número suficiente de experimentos, la cantidad de veces que aparecen valores de x comprendidos entre 1 y 1.5 será la misma que la cantidad de veces que resulta un valor de z comprendido entre 0.8413 y 0.9332. Expresandolo de otro modo, x es la función inversa de la distribución gaussiana,

)()(1 νFinvvFx == −

De un modo mas general, si Φ(x) es una función de distribución cualquiera de la variable x, entonces, asignando valores aleatorios, números que responden a una función de distribución uniforme definida en el intervalo (0,1), a la función de distribución inversa,

x = Φinv(numero aleatorio)

los valores de x así obtenidos tendrán la misma frecuencia que los que se obtendrían si se realizara el proceso físico correspondiente. El proceso de simulación se resume entonces a entrar en la función inversa de cada una de las variables de entrada con un número aleatorio, y en base a la expresión (25) obtener el valor que asume esa variable en esa realización. Conocidas todas las entradas, se puede hallar el valor de la salida de esa realización. La simulación de Monte Carlo se limita a la ejecución reiterada de este proceso. Luego, en base a los datos obtenidos, se puede hacer una caracterización probabilística de la salida del proceso.

(24)

(25)

y=f(x1 ,x2,...,xn )

x1

xn

y

xdx

Áreas iguales

fx(x)

dzz

)fz(z

Fig.19 Fig.20

(23)

Page 50: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

42

42

a

bc

Ta Tb Tc t

f(t)de

Caminos semicríticos

Si las curvas de densidad de los distintos caminos se solapan, como en cada ejecución del proyecto solo puede haber un único valor de tiempo de duración para cada camino, es claro que cualquiera de los caminos cuyos tiempos de ejecución sean los mas altos y se solapen son potencialmente posibles caminos críticos. A estos caminos se les denomina caminos semicríticos. Los caminos a, b, c, y d de la figura 21 son todos caminos semicríticos, dado que cualquiera de ellos puede resultar eventualmente crítico. Pero, una vez fijado un riesgo solo uno de ellos es crítico. Por caso, con un riesgo del 50%, o sea, trabajando con los valores medios, pasa a ser crítico el camino c de la figura 21.

La determinación de los caminos semicríticos, caminos que tienen alguna

probabilidad de ser críticos, es de cálculo difícil por medio analítico pero muy simple en base a simulación de Monte Carlo.

Supongamos conocidos los parámetros de la distribución beta, α y β, de la tarea j. Entonces, un posible valor de duración de la tarea j estará dado por

t = to + [ Betainv(aleatorio, α , β)].(tp-to)

donde Betainv() es la función beta inversa normalizada, o sea definida en el intervalo (0,1). Si esto se repite para cada tarea, la suma de los tiempos correspondientes a las tareas de un camino determina el tiempo de ejecución de ese camino. Si este cálculo se hace para todos los caminos, el de mayor duración será el camino crítico de esa realización. Usualmente no será necesario determinar la duración de todos los caminos, pues muchos de ellos podrán ser descartados, porque por simple análisis se sabe que no podrían ser nunca críticos.

En un nuevo intento de realización del proyecto, como si fuera ejecutado por otro equipo de trabajo, seguramente en condiciones de entorno distintas, resultaran sin duda otros valores. Esto implica hacer otra simulación, repitiendo el proceso anterior. Si esto se repite un número elevado de veces, se esta en condiciones de hacer el tratamiento estadístico que permita responder a las preguntas:

1. ¿Cuál es la probabilidad de concretar el proyecto en un tiempo dado, independientemente

de cual resulte ser el camino crítico? 2. ¿En que tiempo puede concluirse el proyecto, bajo riesgo impuesto, independientemente

de cual resulte ser el camino critico? 3. ¿Bajo un riesgo dado, en que tiempo se puede concretar el proyecto para un dado camino

semicrítico? 4. ¿Que probabilidad tiene un camino de ser critico?

El valor de duración X que resulte debe verse solo como una referencia, debido a que

supone recursos infinitos y computa unidades de tiempo. Considerando condiciones normales de trabajo, se podría hacer una estimación de la duración en semanas de trabajo en base a

40Xs =

valor que deberá aumentarse para considerar días festivos y días perdidos. También, asumiendo 1800 horas de trabajo anuales, se puede tener una idea de la duración del proyecto en días calendario, suponiendo una ejecución normal.

Fig.21

(27)

(26)

Page 51: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

43

43

Programación

Se ha visto que el diagrama de flechas, a veces llamado grafo de redes, sirve para indicar la secuencia lógica entre las tareas, y determinar la duración del proyecto sobre la base de que se dispone de recursos infinitos, pero sin ajustarse a calendario alguno. Como resultado de los estudios de factibilidad la dirección de la empresa decidirá los recursos efectivos que van a ser volcados al proyecto y el momento en que el mismo comenzara. Es en función de esas directivas que se debe replantear la duración, establecer la posible fecha de finalización y determinar un presupuesto ajustado al nuevo replanteo. La asignación de recursos: cuantos y quienes participaran, conque medios, y en que momento (fijación de un calendario), es la tarea de la programación del proyecto.

Las directivas que establezca la dirección de la empresa para la ejecución del proyecto podrán basarse en alguno de los criterios siguientes, o en su combinación:

• mínimo tiempo de ejecución ( bajo condición normal o acelerada) • mínimo costo de desarrollo • máximo aprovechamiento de los recursos existentes en la empresa • asignación de recursos limitados en ciertas áreas • cumplir con una fecha ligada a algún evento especial • posibilidad de contrataciones externas en ciertas áreas • conclusión de alguna etapa en una fecha prefijada

Diagrama de Gantt

La programación se vale del diagrama de barras o diagrama de Gantt. Este diagrama

tiene en su eje horizontal el tiempo calendario, destacando los días laborables, y cada tarea esta representada por una barra horizontal. La barra queda definida por su fecha de inicio, las precedencias que debe satisfacer, los días laborables y horas diarias de trabajo, y la duración de cada tarea. El grafico marca también la vinculación de precedencia entre tareas, figura 22.

El primer problema que se presenta para construir este diagrama es como representar la duración de una tarea que esta sujeta a incertidumbre. Obviamente, si se hiciera con los valores medios, la duración del proyecto que resulta del diagrama de Gantt no seria congruente con la duración que se determino previamente con el PERT, donde se contemplo una duración con un nivel predeterminado de riesgo. El otro problema es que para hacer el control, a fin de evaluar la marcha del proyecto, necesariamente se deben considerar las incertidumbres.

Analicemos esto con más detalle. Si quisiéramos determinar la duración de una única tarea que esta sujeta a incertidumbre, adoptado un riesgo dado, su duración tendrá un valor,

jjjj tt σγ .+=

donde jt es el valor medio de duración de la tarea j, σj es el desvió estándar correspondiente a

esa tarea, el cual se ha visto esta dado por

(28)

Fig.22 5/02 12/02 19/02 26/02 05/03 12/03 19/03

Tarea A

Tarea B

Page 52: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

44

44

6

ojpjj

tt −=σ

y γj un factor que toma en cuenta el riesgo asumido, figura 23. Para un conjunto de tareas, por ejemplo las tareas involucradas en el camino k, la estimación debiera considerar la incertidumbre que resulta en la ejecución de cada una de las tareas que integran dicho camino.

Atendiendo a que la duración de las tareas involucradas en un dado camino es la suma de los tiempos de las mismas, y asumiendo las condiciones de validez del teorema del límite central, dicha duración responderá al modelo normal. En tal caso es posible, fijado un riesgo α, determinar en función del mismo el valor zα con el cual estimar la duración de ese conjunto de tareas,

kkentareasj

kentareasj

kentareasjriesgo

ztzt σσ αα .. 2 +=+= ∑∑∑

Esta expresión, si bien valida para calcular la incertidumbre que resulta en la ejecución de todas las tareas, no sirve a los efectos de calcular como la incertidumbre se reparte entre las distintas tareas ni para el control de progreso. Es decir, la expresión (30) supone total independencia entre las tareas, siendo que en realidad estas están ligadas por una condición de precedencia. Para entender el problema, supóngase que se computa la duración de cada tarea asumiendo un cierto riesgo, y se considera la misma como un evento aislado, y que lo mismo se hace para el resto de las tareas. Si se sumaran estos tiempos para cada camino se obtendría una duración que excede a la que se obtiene de considerar al conjunto de las tareas de ese camino como un evento único. En tal caso, el diagrama de Gantt no seria coherente con lo determinado en el PERT. Para que lo sea, debe verificarse que

para lo cual bastaría con asumir un riesgo para cada tarea proporcional a la incerteza de la misma en relación a la incerteza total,

∑=

m

i

ii z

1

2

σγ α

Cualquiera de los dos modos de tratamiento tiene sus problemas. La programación implica hacer una previsión anticipada de recursos y fija el momento en el que debe intervenir cada sector o departamento. Una asignación de recursos basada en los valores medios puede dar lugar a que, durante la ejecución del proyecto, esta programada la participación de un sector sin que se hayan concluido las tareas precedentes a cargo de otros, y sin que ello signifique retraso por estar dentro de una incerteza prevista.

Si bien la repartición de la incerteza vuelve coherente el grafo PERT y el diagrama de GANTT, deja sin embargo la principal cuestión pendiente: el saber a cierta altura de ejecución del proyecto si el mismo esta en tiempo, o se encuentra atrasado o va adelantado; y lo mas importante, saber si se va a poder terminar el proyecto en fecha2. 2 ver Control de Proyecto, página 46

riesgo

t tj to tm tp

f(t)

Fig.23

(30)

(29)

(31)

(32)

tcamino k

∑∑∑∑∑∑ =+=+=+=m

i

m

iii

m

ii

m

i

mm

iriesgotttztt

i11111

2

1).(.. σγσγσαα

camino k

Page 53: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

45

45

a

15 20

5

15

t1

t4

t3

t2

t1t2

t3

t4

b

t1t2

t3

t4

t1

t2t3

t4

d

t2

t3

t4

t1

ec

Asignación de recursos

Se ha visto que la asignación de recursos y el calendario al que deben ajustarse las tareas deberá hacerse según los criterios que hayan sido fijados por la dirección de la empresa. Si bien en la etapa de planificación se determina el tiempo que lleva la ejecución de cada tarea, estableciendo un número de horas, no dice como estas se distribuyen; es decir, no toma en cuenta cuantas horas por día, ni cuantos días a la semana se trabaja. Cuando la organización no es por proyecto, sino que se usan recursos de distintos departamentos de la empresa, cada uno de ellos trata de ir llenando los tiempo libres, manteniendo la carga de trabajo lo mas nivelada posible. Para eso se aprovechan los márgenes que puedan tener las tareas. Si la empresa no tiene recursos disponibles, deberá agregar recursos, incorporando gente, nuevos equipos, o contratando externamente.

La figura 24a muestra tareas de un tramo del diagrama PERT. Se trata de establecer

la carga de ingeniería, suponiendo que la ejecución de cada tarea requiere un ingeniero. Algunas posibles formas de asignación se indican en las figura 24b,c,d y e, pudiendo cada una ser optima según sea el criterio que se considere: mínimo empleo de recursos por unidad de tiempo, c; mejor nivelación en el uso de recursos, d y e; el caso d será mejor que el caso e, si t4 requiere una mayor inversión. Otro criterio seria adelantar las tareas con mayor incerteza.

Si se pretendiera ejecutar el proyecto en el menor tiempo se debería acelerar la

ejecución de cada una de las tareas, lo cual acarreara sin duda mayores costos. La relación entre costo y duración toma típicamente la forma indicada en la figura 25. La curva muestra que por más recursos que se dispongan no es posible acortar la duración más allá de un valor dado. Si la meta es minimizar el costo, el tiempo óptimo sería to, figura 25. Como la relación costo-duración es propia de cada tarea, cuando el proyecto deba acelerarse habrá que buscar cual es la alternativa mas efectiva en costo. El perfil de recursos requeridos, indicados debajo del diagrama de Gantt, será diferente con cada asignación. En el caso de la figura 26a se han retrasado las tareas no críticas tanto como es posible. Esto acarrea una fuerte desnivelación en los recursos requeridos. Manejando los márgenes disponibles en las tareas C y E es posible lograr una mejor nivelación, figura 26b, sin por ello producir retrasos en el proyecto.

Fig.24

t ta) b)

recursosrequeridos

A (2)

D (6)E (1)

C (4)

B (3)

F (4)

A (2)

D (6)

E (1)C (4)

B (3)

F (4)

recursosrequeridos

Fig.26 Fig.25

$

duración

Condicion normal

condicion acelerada

to

Page 54: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

46

46

α/2=27%

TT

5%α =2

Intervalo de confianza

t1 t2tiempo calendario

TE1

2. zα . ( σ 2A + σ2

B + σ2C )1/2

2. .σAzα

Ct

At

Trabajoplaneado

2. .((σA)2 + (σB)2)1/2zα

Bt

Control del proyecto

Asignados los recursos y construido el diagrama de Gantt, se puede establecer el perfil de carga diario, medido en horas-hombre. Con este perfil se puede obtener el trabajo planeado total acumulado, suma de las horas-hombre que esta planeado ejecutar hasta un momento determinado, figura 27, y contra la cuales se hará el control de progreso. Los controles deben estar contemplados dentro de la planificación misma, y su número resultara por balance de los costos del control frente a los costos derivados de los retrasos.

Dado que las tareas tienen duración incierta, para decidir si se va adelantado o atrasado es necesario saber cual es el intervalo de incerteza para los instantes de control, figura 28. Por ejemplo el trabajo planeado TE1 se debería completar entre los tiempos t1 y t2 para estar dentro de lo planeado. Pero, el control no solo busca saber si lo ejecutado esta dentro de lo planeado, pretende además:

• estimar, en base a lo ejecutado, si se va a cumplir con la fecha de finalización • determinar una nueva fecha de terminación, bajo el riesgo asumido • disparar acciones correctivas, para situarse dentro de lo planeado

El problema es que aun estando al momento del control dentro del intervalo de

incerteza previsto, esto no implica que se pueda concluir con la planificación prevista. Ahora se tiene un nuevo escenario: la información a posteriori modifica la previsión inicial.

Supongamos que la planificación prevé terminar el proyecto en el momento T, bajo un riesgo dado, figura 29, y que al momento de finalizar la tarea j se hace un control de la marcha del proyecto. Supongamos que, con un riesgo del 5%, las tareas previas deberían quedar concluidas a más tardar en el instante t1, y que efectivamente sea ese el tiempo de conclusión. La cuestión que se plantea ahora es: ¿habiendo concluido las tareas previas en un instante t1, que esta dentro de lo previsto, que chances hay de no concluir el proyecto dentro del tiempo T?

Fig.28Fig.27

Fig.30 Fig.29

5/02 12/02 19/02 26/02 05/03 12/03

Car

ga d

e tr

abaj

oac

umul

ado

tare

as

A (2)

B (1)

C (1)

D (3)

E (4)

F (4)

3

12

6

(Horas-hombre)

Car

ga d

e tr

abaj

o di

ario

(Horas-hombre)

Page 55: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

47

47

100

0 5 10 20 30 50 80 100

0 15 30 80 100

0 40 80 100

0 25 50 75 100 (%)

100 (%)

50

0

0 10 20 50 80 100 (%)

Trabajo conseguido

Presupuesto previsto

Trabajo planificado

Presupuesto ejecutado

excedido depresupuesto

Nivel de conformidad (%)Peso 20 40 60 80 100

2

100

30

28

40

Tarea PorcientoHoras

1 40

4

3

2

9.1

80

200

120

45.5

27.3

18.2

440 100Total

Porciento del tiempo de duracion

Poc

ient

o de

hora

sde

traba

jo

Por

cien

to d

elpr

esup

uest

o to

tal

instanteactual

Porciento del trabajo

Trabajoconseguido

retraso

Trabajo previsto

Ahora bien, dado que T y t1 están impuestos, el nuevo valor del riesgo esta dado por

α = 1- P(T-t1)

donde P(t) es la función de distribución de las tareas pendientes de ejecución, figura 30. Esto muestra una nueva posibilidad de enfoque, haciendo que la variabilidad

admisible para las tareas previas al momento de control se establezca en base a la incerteza de las tareas que aun resta ejecutar de modo de asegurar que se este dentro de las metas del proyecto. En cierto modo, esto es un planteo inverso al indicado en la figura 28.

En el control conviene trabajar con medidas relativas en vez de manejarse con valores absolutos, por ser más indicativo y facilitar el control. Como la acción de control es una acción programada, seguramente, al momento del control, algunas tareas tendrán un estado de avance parcial. En tal caso, cada tarea debe ser medida en relación al tiempo total del proyecto, y su nivel de avance o progreso estimado en función de lo ejecutado en relación al tiempo invertido, y al nivel de conformidad en el cumplimiento de objetivos, figura 31.

Frente a la pregunta: ¿cuál es el estado del proyecto?, no hay una única respuesta. Se

debe diferenciar lo previsto (Budgeted cost of work scheduled, BCWS), de lo conseguido (Budgeted cost of work performed, BCWP) y lo invertido (Actual cost of work performed, ACWS). Es decir, para un conjunto de tareas que esta previsto ejecutarse en 100 h (BCWS =100 h) si transcurrido ese tiempo solo se han ejecutado 80 horas y conseguido realizar el trabajo correspondiente a 60 horas del trabajo previsto, es BCWP=60 h y ACWS=80 h. Es decir, en este caso habrá un retraso, debido a poca efectividad y a un bajo ritmo de trabajo.

Si se quiere conocer el estado de situación del proyecto en un instante dado se debería comparar lo ejecutado contra lo planificado, considerando no solo el tiempo y el presupuesto, sino además el nivel de cumplimiento de los objetivos. Es decir, es necesario distinguir entre estado de situación del proyecto y una evaluación de desempeño, en la cual debe incluirse el grado de cumplimiento de los objetivos técnicos.

Cuando no se esta dentro de lo planeado será necesario introducir correcciones. Como es imposible satisfacer el plan tiempos y el plan costos simultáneamente, necesariamente uno de ellos quedara subordinado, salvo que se alteren las metas del proyecto. Esto puede significar un aumento de recursos, un estiramiento de los plazos, o un cambio en las especificaciones como recurso extremo. Lo menos adecuado es tratar de hallar culpables y darlo por terminado, o justificar su prosecución en razón de lo invertido.

(33)

Fig.31

Page 56: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

48

48

Factibilidad económica

El proyecto debe integrarse al plan de negocios de la empresa El plan debe incluir un análisis del mercado al que se quiere llegar, un análisis de la competencia, evaluaciones referidas a las expectativas del cliente, sobre posibilidades de crecimiento y mejoras, planes de evolución del producto, objetivos de costo, políticas de comercialización y precios, necesidades de desarrollo de recursos humanos, planes de investigación y de desarrollo, y una evaluación de como el producto afectara el futuro de la empresa, etc. El plan de negocios debe contemplar tanto el corto (1 a 2 años) como el largo plazo ( 3 años o mas ). Todo ello será la base para decidir la conveniencia del proyecto. En las empresas occidentales, tradicionalmente, los proyectos se analizaban basándose exclusivamente en su tasa de retorno, y decidir entre varios era solo una cuestión de saber cual era el más redituable. Esto implica que las decisiones de las empresas son tomadas bajo la visión de los accionistas, que son considerados los verdaderos dueños de la empresa. Por el contrario, en Japón, los accionistas son “socios silenciosos” de directivos y trabajadores. Se considera que la empresa son directivos y trabajadores, y no solo edificios, instalaciones y equipos. La decisión en este caso se basa en el valor agregado por el proyecto: el cual es compartido por accionistas, directivos y trabajadores, y en reinversiones en partes prácticamente iguales. En este caso, los proyectos se seleccionan según una evaluación del valor agregado y la posición competitiva de la empresa a largo plazo, y no solo considerando el beneficio de los accionistas. Es decir, importa más el futuro de la empresa que el resultado de los beneficios a distribuir entre los accionistas que resultan del balance anual.

Costo objetivo

El beneficio resulta por diferencia entre el precio de venta y los costos. El precio de venta esta acotado por sus dos extremos: El piso esta fijado por el costo, y el techo por el valor o la utilidad que el producto representa para el usuario. La tarea del desarrollo es maximizar dicha diferencia, lo cual implica minimizar el costo y maximizar la utilidad para el usuario, como medio para aumentar la demanda. Es decir, los componentes del costo de un producto no deben verse como algo rígido e inmodificable: Se puede y debe trabajar sobre ellos para viabilizar el proyecto. En la mayoría de los casos habrá que operar sobre el producto y sobre los procesos, y en otros casos será necesario disponer de otras variables externas a la empresa para hacer viable el proyecto.

Para su análisis, conviene desglosar los costos según la etapa formadora:

• Desarrollo: Marketing, planificación, desarrollo de producto, validación del desarrollo de producto, desarrollo de manufactura, validación del proceso de manufactura

• Producción: compras, licencias, recepción, almacenamiento ( materia prima y producto terminado), manufactura, control, embalaje

• Comercialización: promoción ,ventas, despacho y entregas, cobros • Servicio postventa: Instalación y puesta en marcha, atención postventa, garantía • Administración: Sueldos personal administrativo, amortizaciones, tasas • Financiación (intereses): Carga financiera del capital propio invertido, carga

financiera resultante de la venta, debido a plazos de pago o toma de créditos

Tradicionalmente, el costo total se obtenía por acumulación de costos, pero la tendencia moderna es operar en base a un costo objetivo, invirtiendo las cosas: Se va de

valor agregado = valor de los productos

valor de productos y servicios comprados–

Page 57: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

49

49

adelante hacia atrás. Este es un nuevo concepto que toma al usuario o cliente como base total para la definición del producto, incluyendo además de las prestaciones del equipo, como una característica mas, el precio que esta dispuesto a pagar el consumidor. Es bajo este enfoque que deben ser desarrollados los nuevos productos.

Establecido el precio de venta como valor de mercado y fijado el beneficio deseado, entonces el costo objetivo resulta de la expresión

Costo objetivo = Precio de venta – beneficio objetivo

Impuestas dos de las variables, resultara la tercera. Como el precio de venta lo impone el mercado, solo resta trabajar sobre los costos o aceptar un menor beneficio. En el método aditivo, como se parte de los costos de producción actuales, quedara afectado el beneficio resultante, lo cual viabilizará o no el proyecto. En el método sustractivo se impone el beneficio, y en tal caso solo resta saber si el costo objetivo esta por encima del costo real de producción. La parte mas importante de cualquier desarrollo es justamente la de lograr suficiente innovación en el producto, los componentes y los procesos, de modo de satisfacer la meta de costo objetivo. Para ello, partiendo de la meta de costo, se establecen metas para cada elemento formador del costo. Este método se usa básicamente para los análisis de costo en la etapa de desarrollo del producto, con la finalidad de influir en la estructura de costos del mismo. El modelo parte del supuesto que todo producto puede desglosarse en funciones y que estas pueden valorarse según la apreciación del cliente, para ser consideradas en la definición del producto según sea su relación costo / valoración.

La escala de producción afecta todos los costos. Un volumen alto hace que los costos de desarrollo, los que corresponden al desarrollo del producto y desarrollo de manufactura, denominados costos no recurrentes, tengan mínimo peso. También el costo de los componentes es muy dependiente del volumen, y de acuerdos de compra. La compra de los componentes está actualmente globalizada a nivel de grandes grupos empresariales multinacionales, con precios muy diferentes a los que un pequeño fabricante puede obtener. Aun entre las grandes compañías multinacionales puede haber diferencias de casi uno a dos en el costo de un mismo componente, aun tratándose en ambos casos de grandes volúmenes de compra. Esto determina que actualmente, el costo final del producto a la salida de fábrica descanse fundamentalmente en el costo de estructura, y en el costo de proceso que resulta del armado, la soldadura, el control, la empaquetadura y el despacho a plaza.

Contar con una economía de escala redunda en:

• muy baja incidencia del costo de la I&D • reducción del costo de compra de los componentes, debido a descuentos por

volumen • alto beneficio por reducción de costos logrados por optimización del diseño

Esto no es posible cuando el mercado es pequeño y el producto aprovecha un nicho

del mismo. Las reglas para el diseño son otras. Partes o elementos que pueden ser dedicados, y con importante reducción del costo, ya no son posibles de usar. Igualmente, no es posible usar los métodos de manufactura aplicados en altos niveles de producción. Tampoco es posible reducir el tamaño del producto, estrechamente ligado al costo, sea porque implicaría diseñar un nuevo gabinete o algunas de las partes. En estos casos, el diseño debe asumir como inevitable que al menos en su primer lanzamiento el producto sea una versión con bajo volumen de producción y de alto costo. Luego de introducido el producto, con un mercado mas maduro, se buscara ampliar el volumen. Esto, obviamente, solo será posible si la demanda del producto es elástica, es decir, si aun con un alto precio existe un mercado suficiente que justifique el desarrollo. Usualmente este es el caso de los productos de alta tecnología, como es el caso de gran numero de productos electrónicos.

(34)

Page 58: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

50

50

Mercado objetivo

El conjunto de clientes que en un dado momento manifiesta un grado suficiente de

interés por el producto, y dispone de capacidad de compra, pero sin tomar en cuenta el precio de venta, determina el mercado potencial del producto. Su estimación suele hacerse en base a indicadores relacionados con la capacidad de compra, como ser el producto bruto per capita, el nivel de ingreso medio, etc. La demanda en cambio mide, para un momento dado, la cantidad de un producto que puede ser comprada en relación a su precio de venta, expresada en unidades monetaria o unidades físicas, considerando tres supuestos:

• el mercado se compone de aquellos que están deseosos del producto en cuestión y

tienen capacidad para comprarlo ( es decir, supone un mercado potencial ) • existe una relación inversa entre la cantidad demandada (Q) y el precio de venta (P) • la demanda solo es valida por un tiempo limitado. Con el tiempo los productos, las

costumbres y exigencias cambian. El primer paso de un estudio de factibilidad económica es cuantificar el mercado

potencial, y analizar luego como este se deprime en relación al precio de venta. La variación porcentual que sufre la demanda cuando se produce un cambio porcentual en el precio define lo que se denomina la elasticidad E del producto,

PdPQdQE =

Los productos de consumo masivo son poco elásticos, y por lo general superado un cierto precio la demanda cae abruptamente. El codo de la curva de demanda esta vinculado con el ingreso per capita. La existencia de este codo hace muy difícil que una pequeña compañía pueda entrar en el mercado de entretenimiento., pero afortunadamente, dentro del área de la electrónica, la situación no es tan mala, dado que es posible definir productos dedicados a explotar nichos de mercado

Como el mercado esta integrado por todos los productos que compiten entre si para satisfacer idéntica necesidad de un grupo de usuarios, si estos estuvieran estratificados, también lo estaría el mercado. De no ser así, debe buscarse la posibilidad de segmentar el mercado, desarrollando estrategias diferenciadas de promoción, comercialización o desarrollando un producto diferente para un grupo de usuarios. Se busca con esto dividir un mercado global en franjas menores, diferenciando a los usuarios y dando lugar a una función de demanda también diferente, y a un mercado temporalmente cautivo.

Para una empresa el mercado potencial quedara limitado por la capacidad instalada o que va a instalar. Eso da potencialmente sus posibilidades de crecimiento. Luego, lo novedoso del producto, la estrategia de comercialización, la propaganda, la posición competitiva y el precio de venta determinarán el factor de penetración y el perfil del mercado. Un lanzamiento mas temprano, una mayor penetración inicial y una mayor porción del mercado, determinaran mayor volumen de ventas y mayores beneficios, figura 32.

(35)

Fig.32

Ciclo de vida

Volumen de ventasMayor porción de mercado

tiempo

Lanzamiento temprano

Generacionsiguiente

PrecioPm

Q

P

Qm

unidades

Fig.33

Page 59: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

51

51

Definir el perfil del mercado que se quiere tomar no es tarea fácil sobre todo cuando

se trata de productos nuevos. Este perfil determinará el resultado de la evaluación de factibilidad económica, y afectara a los planes de compras y de producción futura, planes que luego no son fácilmente modificables para adaptarlos rápidamente a las exigencias reales del mercado. Uno de los errores de IBM cuando lanzo el primer computador personal, la PC, fue precisamente subestimar el mercado, tanto que al mes y medio del lanzamiento de la PC ya había cubierto toda la cuota del año, y se encontraba en imposibilidad de responder a esa mayor demanda, lo cual posibilito que se introdujera la primera imitación.

La habilidad de muchas empresas es despertar el mercado, creando expectativas previas al lanzamiento, de modo de saltar las etapas de introducción y difusión, o achicarlas; un buen ejemplo de esta práctica se dio con el lanzamiento a nivel mundial del Windows 95.

La curva de demanda guarda una relación inversa entre la cantidad de unidades y el precio de venta de cada unidad. Habrá un precio de venta suficientemente alto, Pm, para el cual no va a haber ningún comprador interesado. En el otro extremo, regalando el producto, habrá un número de unidades máximo que el mercado puede absorber, Qm, figura 33. Una simplificación es aproximar entre estos dos límites por una recta. Esta aproximación lineal tendrá sentido si se trabaja en un entorno de la curva, donde los valores de Pm y Qm resultan por extrapolación, figura 33; para definirla, simplemente basta producir un cambio en el precio de venta y ver como reacciona la demanda. Ciclo de vida

Todos los productos tienen un ciclo de vida, que comienza con la aparición de la innovación, le sigue una etapa de crecimiento (difusión del producto), y luego sobreviene la madurez ( o saturación ) para finalmente caer en la declinación hasta la completa desaparición del mercado, figura 34. Este perfil deberá ser hallado para el producto en desarrollo. Muchos productos tienen un ciclo corto y único, como fue el caso de los equipos de banda ciudadana, muy populares en los años 1970, figura 35. Otros productos están sujetos a ciclos sucesivos, debidos a cambios generacionales, como es el caso del computador personal.

Como indica la figura 36 la tendencia, en todas las áreas, es a que los productos tengan ciclos de vida cada vez más cortos, siendo en algunos casos el tiempo de permanencia en el mercado mas corto que la duración del desarrollo. Esto llega al límite en que se esta trabajando simultáneamente sobre varias generaciones distintas a la vez, con distintos grados de avance.

Fig.34

Intro

ducc

ión

Dec

linac

ion

Sat

urac

ion

Cre

cim

ient

o

t

Producción

50 años atrashoy

duración ciclo de vida0 5 10 15 20 25

cosmeticos

farmaceuticos

alimentacion

herramientas

juguetes

Fig.35

Fig.36

Page 60: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

52

52

Precio de venta

Hay dos modos de aumentar o asegurar beneficio: trabajando sobre el costo o imponiendo el precio de venta. El proyectista solo puede influir sobre los costos; el precio de venta es un problema de marketing. Cuando el producto debe penetrar en un mercado existente debe ser competitivo, y en tal caso el único camino es trabajar sobre los costos. El precio de venta en condiciones de competencia perfecta esta determinado por el mercado, y ningún comprador o vendedor de por si puede alterarlo. Por ello, la tarea del desarrollo será obtener un producto que satisfaga la especificación bajo metas de costo. Esto es lo que puede hacer posible un mercado que antes no existía. Este fue el caso de las fotocopiadoras, para las que Xerox nunca considero ni desarrollo un producto que permitiera salir de unos pocos clientes, generalmente grandes empresas o corporaciones. Canon, en cambio pensó un producto para un mercado mas amplio. Lo mismo ocurrió con las videograbadoras, producto introducido por Ampex, empresa que nunca salió del ámbito profesional; igual situación se repitió con otros productos electrónicos. El desafió es innovar para acercar el producto a segmentos de mercado mucho mayores, y eso implica fijar el precio de venta como una restricción en la solución. Es decir, en este caso el precio de venta se fija en función del mercado al que se quiere llegar.

Ahora bien, las empresas producen solo si el hacerlo es más beneficioso que no producir. En otras palabras, se justificara producir para un precio de venta dado si los ingresos exceden a los costos evitables. Desglosando los costos totales en costos fijos (CF) y costos variables (CV), para una cantidad de unidades producidas q se define el costo medio total por

CMVCMF

qCV

qCF

qCVCFCMT +=+=

+=

Los costos evitables son usualmente los costos variables, de modo que mantener la producción se justificara si el precio de venta P es mayor al costo medio variable, CMV, es decir si

P > CMV

Esto implica que una empresa puede decidir continuar produciendo aun cuando el precio de venta P este por debajo del costo medio total, CMT, solo que transitoriamente. El fin último de cualquier empresa es obtener beneficio, el mayor posible. El punto de equilibrio quedara definido por un precio de venta que resulte de la condición de no perder dinero; es decir para un nivel de producción qc que se corresponde al mínimo de los costos medios totales (CMT), figura 37.

Cuando el costo de producir una unidad mas, denominado costo marginal (CM), verifica

CMTq

qCCMq

<∆

∆=

=∆ 1

)(

decimos que hay economía de escala, siendo C(q) el costo total de producir q unidades.

El costo marginal (CM) para un volumen de producción Q se vincula al costo medio

total (CMT) por la expresión

qc Fig.37

(36)

(38)

Fig.38

(37)

Q

$

Pc

CMT

q c

Page 61: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

53

53

( ) ( )1

111

*

**1*

+

+++

+∆=

+−=−+=

QQ

QQQQQ

CMTQCMT

CMTQCMTCMTQCMTQCMTCM

Para valores de Q menores a qc, ∆CMTQ es negativo, y en tal caso el costo marginal estará por debajo del CMT, mientras que si Q>qc CM estará por arriba por ser ∆CMTQ positivo. Para Q=qc es ∆CMTQ=0, de modo que este será el punto de cruce, figura 38.

En condiciones de competencia perfecta la oferta del mercado queda determinada por la participación de todas las empresas, cada una con una porción de mercado poco significativa, y un nivel de producción qo que se sitúa cerca del mínimo de los costos medios totales (CMT), figura 39. Si el precio estuviera por debajo de Pc=minimo(CMT) no habría oferta: Ninguna empresa fabricaría dado que ese valor Pc es el mínimo precio para el cual se justifica producir. Para que haya beneficio el precio de venta debe ser superior a Pc, y se obtendrá el máximo beneficio posible cuando el precio de venta iguale al costo marginal, lo cual determina el máximo nivel qo de producción que ese fabricante esta dispuesto a ofertar para ese precio de venta, figura 40.

Esto lleva a pensar que cuando media la participación de muchas empresas en el

mercado la curva de oferta será horizontal, con un precio de venta impuesto por el mercado que se situara apenas por encima del costo de fabricación, Po ≅ Pc. Un producto innovativo permite fijar un precio de novedad. En este caso, al no existir competidores se goza de un mercado monopólico, y en tal caso el precio de venta puede ser fijado para obtener el máximo beneficio. Una firma que puede vender todo lo que produce al precio Po obtiene su máximo beneficio aumentando su producción hasta el límite en el cual el ingreso por la venta de cada unidad adicional, denominado ingreso marginal, es mayor al costo de producirla, costo marginal; es decir, producirá a condición de que

CM < IM pues en tal caso, la producción de una unidad adicional reditúa en un incremento del beneficio.

Dado que, por hipótesis, la curva de demanda supone que el volumen de venta solo puede incrementarse si se produce una disminución en el precio de venta, por consiguiente, el ingreso marginal, ingreso que se obtiene por cada unidad adicional vendida, será decreciente con el volumen de producción, figura 41. En efecto, el ingreso marginal se obtiene directamente de la curva de demanda, siendo

11**)1(*

+++∆=−+=

QQQQ vvvv PQPQPQPIM

y dado que ∆PvQ es siempre negativo, el ingreso marginal se sitúa siempre por debajo de la curva de demanda, figura 41. Mientras el ingreso marginal sea mayor al costo marginal, con cada unidad adicional producida se incrementa el beneficio. Por lo tanto, el nivel optimo de producción qo resulta cuando se verifica dicha igualdad, figura 42.

Fig.39 Fig.40

(39)

(40)

(41)

Page 62: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

54

54

Fig.42

$demanda

Qc

$ Beneficios

Beneficiosmonopólicos

Q m

Pm

PcPrecio bajo competencia perfecta

En estas condiciones se tiene el valor límite del beneficio

( ) ooo qqCMTPB .)(−=

Planteándolo de otro modo: como el precio de venta determina el volumen del

mercado, si se supone una relación lineal para la curva de demanda, Q

QP

PPm

mm .−=

y dado que los ingresos dependen de la cantidad de unidades vendidas Q por el precio de venta P, y los egresos van a estar dependiendo de un egreso fijo, Cf , y de un egreso que será función de los costos variables de fabricación, que para simplificar supondremos varían linealmente con la cantidad de unidades Q, resulta

QCCQPB vf .. −−=

y teniendo en (43) se obtiene QCCQQ

QP

PB vfm

mm −−−= )..(

que se hará máximo para un cierto valor de Q.

Las empresas tratan de encontrar ese máximo. Esto significa que si se está en una condición inicial donde se obtiene un cierto beneficio BA, la empresa debe determinar si dicho beneficio puede ser aumentado. Para ello introduce una variación temporaria en el precio y ve cómo reacciona el mercado; si los beneficios aumentasen, se prosigue en igual dirección hasta el límite en el que estos se ven disminuidos. Como la curva de demanda no se mantiene fija con el tiempo, periódicamente se deben hacer tanteos, buscando mantenerse en el máximo.

Cuando la curva de demanda es muy inelástica (curva de demanda 1, figura 43 ) se da una condición ideal para el monopolio. La figura 44 muestra como se maximiza el beneficio cuando se tiene el monopolio de un producto.

(44)

(45)

Fig.43

Fig.41

Fig.44

Beneficio 1

Beneficio 2CMT

CMDemanda 1

Demanda 2

$

Q

(43)

(42)

Page 63: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

55

55

(48)

(49)

Análisis de rentabilidad El desarrollo del proyecto tendrá sentido si del mismo resulta una rentabilidad aceptable. El resultado de este análisis no es sin embargo único, ya que dependerá de:

cambios futuros del escenario estimado el concepto de solución que se considere el criterio para la evaluación de la rentabilidad

Es obvio que cualquiera sea la forma de análisis, en todos los casos se parte de

estimaciones a futuro de los distintos factores de costo, del mercado, y de la tecnología. En razón de ello, según sea el tipo de proyecto, será necesario analizar otros posibles escenarios, considerando su probabilidad de ocurrencia, y en base a ello calcular el riesgo de cada alternativa del proyecto ( concepto de solución ).

La evaluación económica busca determinar para cada alternativa de solución:

• el beneficio total o flujo de caja descontado • el tiempo para el retorno de la inversión • la tasa interna de retorno • la relación costo / beneficio

a fin de decidir cual es la mejor opción. Para realizar estos análisis son de gran utilidad el conjunto de herramientas financieras que dispone Matlab. Analizaremos seguidamente cada uno de estos criterios. 1. Flujo de caja descontado (VAN). Este criterio determina como aceptable un proyecto si el flujo de caja descontado neto total es mayor a cero. El flujo de caja se calcula como diferencia entre los egresos y los ingresos al final del ciclo de vida. Como el ciclo de vida de la mayoría de los productos electrónicos se sitúa entre los 3 y los 5 años, es necesario diferenciar entre el resultado contable y el resultado económico. En este último es necesario considerar el costo del capital, medido por la tasa de interés, lo que lleva al flujo de caja descontado.

Sea FCi el flujo de caja en un periodo i, balance entre ingresos y egresos en ese periodo,

iii EIFC −= Cuando se multiplica el flujo de caja por un factor de descuento βi se habla de un flujo

de caja descontado ( ) i

iii EIFCD β.−= Al flujo de cada descontado también se le denomina valor actualizado neto, o VAN.

Para hallar el beneficio al final del ciclo de vida simplemente se contabilizan los flujos de caja descontados de cada periodo refiriéndolos al momento inicial, mediante un factor de descuento que toma en cuenta la tasa de interés,

ii

i

t )1(1

+=β

donde ti, tasa de interés, es el costo del capital previsto para el periodo i. Este valor dará un valor equivalente al valor del capital al inicio del proyecto de no haber depreciación o inflación. Si pi es la tasa de inflación prevista para el periodo i, entonces, deberá considerarse

i

ii

i

ii pt

FCCDF

)1(1

)1( ++=

Es decir, el resultado de los flujos de caja acumulados, calculados en los n periodos del ciclo de vida, determinaran el beneficio del proyecto, o valor actual neto (VAN),

∑ ∑= +

+=+===n n

ii

i

ioion t

FCEFCDEFCDBVAN

1 1 )1(

siendo Eo la inversión inicial requerida para comenzar el proyecto, la cual será por tanto negativa.

(46)

(47)

(50)

Page 64: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

56

56

Fig.45

Acumulando los flujos de caja netos por periodo, y llevados a una grafica, dentro del ciclo de vida del producto, el valor al final del último periodo representa el beneficio total del proyecto, figura 45.

2. Tiempo de retorno de la inversión. En muchos proyectos, con escenarios a largo plazo impredecibles, o con alta probabilidad de que el escenario a futuro cambie, toma importancia el tiempo de recupero de la inversión. Este valor resulta de determinar el valor de k tal que 0

)1(11/ =

++=+== ∑∑

=

k

ii

i

io

k

oiok tFC

EFCEFCB

de modo que si el intervalo k esta muy próximo al final del ciclo de vida estimado para el producto, o es mayor a cierto tiempo prefijado, entonces el proyecto resulta poco atractivo. 3. Tasa interna de retorno. Todo proyecto lleva implícito diversos riesgos. Por lo tanto, el proyecto debe producir un beneficio más atractivo que el que resultaría de colocar el capital a interés bancario. Por otro lado, como el beneficio B es función de la tasa de interés ti, habrá una tasa de interés para la cual al final del proyecto resulta un beneficio nulo. Esta tasa de interés se conoce como tasa interna de retorno, o TIR, de modo que

0)1(11

=+

=== ∑∑=

n

ii

in

in TIRFC

FCDFCDB

En la medida en que la TIR se acerque al valor de la tasa de interés de mercado el proyecto se vuelve menos atractivo. 4. Relación costo beneficio. Este criterio se basa en determinar la relación entre el valor actualizado de los ingresos brutos, o netos de egresos, en relación al valor actualizado del total de los egresos; es decir, toma en cuenta el valor total comprometido en el proyecto. La relación costo beneficio bruto esta dada por y la relación costo beneficio neto por

La RCBB indica cuanto se recupera en función del monto invertido, mientras que la RCBN da una idea del rendimiento del proyecto. Obviamente, para aceptar el proyecto debe ser RCBB>1 y RCBN >0.

(51)

(52)

Tasa de interés demercado: ti<TIR

Tasa interés =TIR

TRI

B n

t

desarrollo producción

Tasa de interés = 0(valor contable)

E o

FC

=

=

+

+= k

ii

i

i

k

ii

i

i

tE

tI

RCBB

0

0

)1(

)1( Relación costo beneficio bruto =

=

=

+

+−

= k

ii

i

i

k

ii

i

ii

tE

tEI

RCBN

0

0

)1(

)1( Relación costo beneficio neto =

(53)

(54)

Page 65: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

57

57

f(B)

B

a

αriesgo deperdida

FC

F(Xi)

a b

Xim XiM

Análisis de riesgo y sensibilidad El estudio de factibilidad se apoya en supuestos de comportamiento de variables sobre las que no se tiene control alguno, asumiendo estimaciones de escenarios futuros que hacen a:

• regulaciones • cambios en los gustos o comportamiento de los consumidores • cambios tecnológicos • comportamiento de la competencia • cambios en los costos de los componentes • variaciones de los mercados de capital • variaciones en los costos de la mano de obra • costos de los insumos básicos ( electricidad, etc ) • depreciación monetaria • inflación, etc

que por cierto pueden no ocurrir, y de ser así podría verse afectado el éxito del proyecto. A este tipo de problemas se dedican los análisis de riesgo. Estos análisis son sin

embargo de aplicación limitada en los mercados emergentes, en los cuales, leyes y regulaciones gubernamentales que hacen a la previsión de escenarios pueden cambiarse varias veces al año. Esto hace que los criterios comúnmente aplicados para la aceptación de proyectos carezcan en tales escenarios de sentido. Para estos escenarios solo son viables proyectos para los cuales se pueda asegurar un corto tiempo para el retorno de la inversión, muy altos valores de TIR o bien se cuenta con un mercado monopólico, obtenido mediante regulaciones, barreras aduaneras, o altas tasas a la importación.

En cualquier caso, el análisis de riesgo sigue siendo una herramienta importante de decisión, porque permite conocer los puntos débiles del proyecto. Para realizarlo se requiere conocer para cada una de las variables que determinan el beneficio cual puede ser su probable distribución durante el ciclo de vida.

Supongamos por ejemplo que el costo del componente i es Ci, y que del mismo se deben colocar ni unidades por equipo; luego, por desglose de las partes del equipo, se puede hallar el costo total de los componentes,

mmT CnCnCnC ........2211 +++= Estos costos estarán sujetos a una tendencia y a fluctuaciones, caracterizados por un valor medio y varianza en función del tiempo. Esto llevara, para un momento dado, a un valor medio y a una varianza del costo total dada por

2222

22

21

21 .............. mmT nnn σσσσ +++=

y lo mismo se puede repetir para los otros ítems de costo sujetos a fluctuación. Para este tratamiento, si Xi es un componente de costo que influye sobre el beneficio,

para conocer su distribución probabilística, figura 46, se asume como modelo la función beta. Los parámetros se sabe que pueden calcularse en base a una estimación basada en tres escenarios: lo peor, lo mejor y lo más probable y supuestos de valor medio y varianza.

Fig.46

(55)

(56)

Fig.47

Page 66: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Planificación y Programación

58

58

t

a

Primerageneracion

Segundageneracion

FC Beneficio maximo ( a partir deaqui el proyecto es deficitario )

Básicamente, el beneficio B es función de un conjunto de variables Xi, es decir

),....,...,( 21 mi XXXXbB = El tratamiento se simplifica recurriendo a la simulación de Monte Carlo. Si esta se repite suficiente número de veces se obtienen curvas de flujo de caja que tienen carácter aleatorio, figura 47, y de este modo se puede estimar el riesgo de que el proyecto termine arrojando pérdida.

El ciclo de vida y el perfil del mercado en el que se inserta el producto son otras variables sujetas a fluctuación que también deben ser consideradas Obviamente el final del producto estará determinado por varios factores. En una situación como la indicada por la curva a, figura 48, donde pasado un cierto tiempo resulta desventajoso desde el punto de vista del beneficio continuar con la fabricación, igualmente puede justificarse continuar para mantener presencia en el mercado y no dejar un vacío que seria aprovechado por un competidor, al menos hasta tanto no exista un producto sustituto. Esto muestra la necesidad de tener lista a tiempo la generación siguiente.

También puede ocurrir que si es retirado de producción las perdidas serian de todos modos mayores, debido a los costos fijos. Es decir, la meta a nivel de proyecto es obtener máximo beneficio; una vez en el mercado, de lo que se trata es de obtener mínimas perdidas evaluadas a largo plazo. Para realizar estos análisis es conveniente apoyarse en análisis de sensibilidad previos, a fin de que sean considerados todos los factores de mayor peso. Los análisis de sensibilidad se realizan con la finalidad de determinar cuales son los factores que más inciden en el resultado del proyecto, buscando:

• refinar los modelos a medida que se avanza en el proyecto, tratando de disminuir la

imprecisión propia de las primeras etapas • controlar durante el desarrollo del proyecto la evolución de los costos más

significativos y las condiciones del mercado, para ver que el beneficio proyectado se mantiene dentro de lo esperado

Uno de los mayores problemas asociados con el uso de modelos y estimaciones es el

de llegar a decisiones incorrectas debido a las imprecisiones con que se establecen los modelos. Es decir, se trata de reducir el error de estimación de aquellos factores que en principio pudieron haber sido estimados muy groseramente en los inicios del proyecto, sin conocer todavía el peso que los mismos tienen en el resultado económico.

Hay diversos tipos de modelos desarrollados por las fuerzas armadas de USA y grandes corporaciones, la mayoría de los cuales requiere soporte de computadora, como el FLEX, desarrollado para realizar estimaciones dentro del ciclo de vida. El FLEX es un modelo militar basado en el HDBK-259 ( Military Handbook 259).

(57)

Fig.48

Page 67: Libro Materia

Optimización La perfección se alcanza no cuando ya no queda

nada más por agregar, sino cuando ya no resta nada para mejorar

ANTOINE DE SAINT-EXUPÉRY

Podría decirse que hay dos tipos de problemas: unos con solución conocida, y otros de solución desconocida. Los primeros pueden resolverse en base a información que se encuentra en libros, revistas técnicas, o lograrse basándose en el conocimiento de expertos dentro del área. En tales casos, la solución sigue un camino convencional: A partir de la solución estándar desarrollada para este tipo de problema, el ingeniero, simplemente por cálculo, desarrolla una solución particular adaptada al problema específico. Puede decirse que esta es una vía de solución inercial, afincada en la experiencia existente.

Pero, en ciertos casos, con apropiado estudio del problema y de las soluciones existentes, es posible desarrollar pequeñas mejoras, y excepcionalmente mejoras importantes. En otros casos, se busca aprovechando otros principios, producir un cambio mayor en la solución. Estos son los dos caminos que puede seguir el ingeniero, aportando en mayor o menor medida una dosis de creatividad en la solución de los problemas:

• Optimizar las soluciones existentes, buscando mejorarlas • Innovar, proponiendo alternativas distintas de solución

El primero, sin duda el camino más fácil, es aplicable en cualquiera de las fases del

ciclo de vida del producto, o solo puede limitarse al rediseño de alguna parte o cambios en el proceso de manufactura. En muchos casos, con el simple cambio de valor de un componente es posible obtener una mejora notable en el desempeño de un circuito. La condición óptima resultara de evaluar cuan cerca se este en el ideal de producto, evaluando:

• Efectos indeseados, tales como un alto costo, altos rechazos, alta temperaturas, alta tasa de fallas, gran volumen, etc.

• Efectos deseados, como larga vida útil, alta eficiencia, alta capacidad de disipación, y mejores prestaciones en general

debiendo encauzar el proyecto de modo de minimizar los primeros y maximizar los segundos, aprovechando para ello los grados de libertad disponibles. La relación de ambos determina un factor de ideal del producto, o sea, su idealidad, al que debiera acercarse la solución,

indeseadosefectoslosdeSumadeadosefectoslosdeSumaIdealidad =

No siempre existe una solución ideal. Pero, de existir, podría ser tan compleja y

difícil de hallar, que es mejor quedarse con una solución aceptable. Es decir, un criterio adicional a tener en cuenta es ver si los beneficios que resultan de una optimización compensan los esfuerzos necesarios para su logro. Con frecuencia los proyectos están sujetos a urgencias, por lo cual la toma de decisiones es rápida y por tanto resulta difícil contemplar todas las alternativas que llevarían a una mejor solución.

A veces suele expresarse que “la meta de un ingeniero de diseño es desarrollar el mejor sistema posible, de acuerdo a los recursos asignados, que cumpla el objetivo establecido”. En la expresión “mejor sistema posible” están implícitos los dos conceptos mas importantes del proceso de optimización:

Page 68: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización

60

60

• La existencia de un criterio frente al cual se valore que un sistema es mejor que otro; este

criterio no necesariamente puede estar explícitamente expresado dentro de los requerimientos, y en tal caso deberá ser elaborado como parte del proceso de diseño

• la existencia de alternativas, o grados de libertad. De hecho cuando la solución es única,

no hay posibilidad de optimización alguna. En realidad, en este caso tampoco existe un problema de ingeniería de diseño.

Cuando se dice “de acuerdo a los recursos asignados”, se esta fijando un concepto

importante del proceso de optimización: Las soluciones deben contemplar las restricciones propias del problema. Claramente, la expresión “con el fin de cumplir un objetivo establecido” es una condición básica: Solo puede hablarse de solución, si se da cumplimiento al requerimiento o especificación, o al conjunto de objetivos fijados para el diseño. Surgen así, los dos aspectos que siempre deben ser considerados:

1. Criterios de optimización: característica, condición o regla a satisfacer, la cual puede

ser de carácter puramente técnico o económico, aunque usualmente los dos aspectos interactúan entre si. En el aspecto técnico se considera englobados todo lo que hace a la prestación y operatividad. En el aspecto económico esta todo lo que tienda a formar el costo: tecnologías, circuitos, componentes, procesos, controles, etc

2. Variables del sistema: las cuales pueden ser divididas en dos categorías:

(1) Variables dependientes, cuando están asociadas directamente al

cumplimiento de una especificación (2) Variables independientes, cuando pueden ser establecidas para ajustarse

a los criterios de diseño

Tal como muestra la figura 1, en la solución de los problemas se llega siempre a un

compromiso entre los aspectos económicos y el técnico, que no es única. Existirá siempre la posibilidad de cumplir una misma prestación (segmento vertical ubicado en el campo de soluciones) con distintos esfuerzos económicos. Es claro luego que, para una prestación dada, una sola de las soluciones será óptima (la de menor esfuerzo económico). Esta curva es solo una idealización; por un lado, debe verse como algo muy dinámico: lo que es óptimo en un momento puede no serlo en otro, porque el costo relativo entre los componentes cambia, porque aparecen nuevos componentes, o nuevas tecnologías y procesos, etc., y por otro lado lo que es óptimo en un país puede no serlo en otro. Influyen en ello la estructura productiva propia de cada país, su idiosincrasia, sus regulaciones, impuestos, barreras aduaneras, etc. Por ello, la curva solo sirve para materializar un concepto.

Fig.1

Campo de soluciones

prestación

costo

Soluciones óptimas

optim

izac

ion

econ

omic

a

optimizaciontecnica

Fig.2

Page 69: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización

61

61

El enfoque del proyecto queda impuesto por los criterios que deben ser aplicados, reconociéndose usualmente que es posible hallar criterios comunes según el segmento de mercado al que este orientado el producto, tal como muestra la curva de la figura 2.

Usualmente se diferencia entre:

1. Área de entretenimiento: El factor preponderante es el costo, y fundamentalmente el de fabricación.

2. Área profesional: Para estos productos la prestación debe siempre ajustarse a especificaciones y se requiere además que el diseño sea validado. La gran cantidad de especificaciones a cumplir y el mayor nivel de exigencia vuelven muy onerosas las pruebas de validación de estos productos.

3. Área militar: Se busca que los equipos o sistemas superen en prestación a los del potencial enemigo, y que además se garantice su funcionamiento en un ambiente hostil que impone solicitaciones extremas. Todo ello acarrea costos elevados para estos productos, lo cual no implica aceptar el concepto muy arraigado de suponer que para equipos militares el costo no importa. El costo importa siempre, solo que se esta dispuesto a pagar mas para conseguir mas; pero siempre se trata de lograr la meta con el mínimo costo. En esta área importa normalmente el costo dentro del ciclo de vida.

En general hay dos tipos de problemas de optimización:

• Problemas de criterio simple: El objetivo es maximizar o minimizar una sola

función objetivo E. • Problemas multicriterio: El objetivo es maximizar o minimizar más de una

función objetivo E, en forma simultánea.

En el primer caso se debe vincular el parámetro que surge del criterio con las variables del sistema, basándose en un modelo apropiado de análisis. Esta vinculación definirá una función de mérito o función de prestación, también denominada función objetivo, expresada como ),....,,()( 21 nxxxExE = donde, a su vez, las distintas variables podrán estar vinculadas por una función de restricción, o un conjunto de ellas. Estas restricciones tienen las siguientes características:

Definen las condiciones factibles de diseño. Establecen restricciones en las variables de diseño:

Directas sobre los valores de las mismas Definiendo relaciones entre ellas

Fijan restricciones sobre el comportamiento del sistema: Limitando la carga máxima, la potencia de salida, las impedancias, los umbrales lógicos, etc. Limitando los valores que pueden asumir las variables por imposición de leyes físicas fundamentales, o porque la gran mayoría de las magnitudes físicas deben ser siempre superiores a cero. En otros casos serán exigencias de manufacturabilidad las que requieran que la magnitud deba superar un umbral prefijado, como por ejemplo que el valor de capacidad deba ser superior a la capacidad residual del propio circuito.

Pueden estar establecidas tanto por ecuaciones como por inecuaciones.

En la optimización multicriterio habrá un conjunto de funciones objetivo, cada una asociada a un criterio, la cual busca optimizar un parámetro ligado a alguna especificación, o vinculado a una condición del desarrollo, la fabricación, el control, la instalación, el mantenimiento, etc. Según el énfasis que se ponga en alguno de estos aspectos se habla de un

(1)

Page 70: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización

62

62

diseño orientado por el criterio elegido. De lo que se trata es de aprovechar al máximo los grados de libertad disponibles. Cada una de estas funciones objetivo se expresará en la forma

),...,,( 21 njj xxxEE = donde xi es una variable de diseño, y n es el número de estas. Luego, jugando con el conjunto de variables independientes se trata de satisfacer las limitaciones o restricciones propias del proyecto, las cuales pueden tomar la forma de igualdades y/o desigualdades

0),...,,()( 21 == nii xxxhxh 0),...,,()( 21 ≥= nii xxxgxg

o simplemente establecer los limites dentro de los cuales se debe lograr la optimización

si xxx << Puede ocurrir además que, dentro del rango, los valores deban limitarse a un conjunto

discreto. Este es el caso, por ejemplo, cuando la solución debe restringirse a valores normalizados contenidos en una escala de tolerancias. Métodos de optimización

Existen una gran variedad de técnicas para hallar la condición óptima que satisface un dado criterio. Algunas de ellas serán superiores a otras en su aplicación a ciertos problemas, dependiendo esto de que las funciones sean lineales o alinéales, que las variables sean determinísticas o aleatorias, que se puedan establecer expresiones analíticas o solo puedan ser relacionadas por datos experimentales, o que la función sea continua o tenga discontinuidades. Los distintos métodos pueden clasificarse en métodos indirectos y directos. En los métodos indirectos se determina la condición que debe ser satisfecha para considerar la solución como óptima, y de ella se deduce el valor que satisface esa condición. En los métodos directos se evalúa directamente la función de prestación a cumplir mediante la aplicación sistemática de técnicas recursivas. Los métodos indirectos son normalmente tratables mediante métodos analíticos: Estos incluyen la diferenciación, métodos variacionales y el uso de los multiplicadores de Lagrange. Los métodos directos son apropiados para tratamiento por computadora. El empleo de técnicas numéricas hace posible el tratamiento de problemas lineales y no lineales.

Una solución eficiente y precisa para los problemas de optimización no es solo dependiente del tamaño del problema en términos del número de restricciones y las variables de diseño, sino también de características de la función objetivo y de las restricciones. Cuando ambas, la función objetivo y las restricciones, son funciones lineales de las variables de diseño, el problema se conoce como un problema de programación lineal (LP). La programación cuadrática (QP) se relaciona con la maximización o minimización de una función objetivo cuadrática que esta sujeta a una restricción de tipo lineal. Para ambos casos se han desarrollado diversos procedimientos de solución.

Mucho mas difícil es la programación no lineal (NLP), en la cual, ambas, la función objetivo y las restricciones, están sujetas a relaciones no lineales con las variables del diseño. La solución en este caso recurre a un procedimiento iterativo, donde en cada nuevo intento se establece la dirección de búsqueda en base al resultado del paso anterior. Esto se logra usualmente por la solución de una LP, una QP, o llevándolo a un subproblema sin restricciones.

Los distintos métodos deben verse como simples herramientas, que por si solo no resuelven los problemas. Los problemas de la optimización giran siempre alrededor de dos

(4)

(3)

(2)

Page 71: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización

63

63

elementos que no son siempre fáciles de plantear, a saber: los criterios que juegan y la función objetivo que se deriva de ellos.

Usualmente se piensa en la función objetivo como una expresión analítica que vincula las variables en juego. No siempre es posible establecer una función de este tipo, porque lo único que se puede establecer es una relación causa-efecto, que no puede volcarse en un modelo matemático. A veces se hace una aproximación mediante modelos simples, y luego se refina la solución en forma experimental. Diferentes métodos de optimización pueden ser de ayuda en ambos casos, para reducir el número de iteraciones. En otros, el tratamiento analítico solo permite marcar la dirección del camino óptimo. La solución óptima resultara del compromiso con otros factores.

En muchos casos la solución óptima es un compromiso entre varios criterios con exigencias contrapuestas. Básicamente, esta situación se da normalmente entre el costo y el desempeño. Por ejemplo, en el caso del diseño de un transformador, la temperatura a la que debiera trabajar es compromiso entre dos factores:

• fiabilidad superior a un valor impuesto • costo

Un aumento de la temperatura por encima de cierto valor reduce la fiabilidad, y una

temperatura inferior, aumenta la fiabilidad a costa de un mayor costo. Para estar dentro de una fiabilidad aceptable, la temperatura debiera estar por debajo de un valor limite, pero cercano al valor que satisface la fiabilidad mínima aceptable. En tal caso, si En es el valor mínimo aceptable, y x la variable de diseño, se trata de hallar el valor de x que verifica En=f(x) Esta función puede convertirse en la búsqueda de mínimo, simplemente bastaría con considerar la expresión y = abs(f(x)-En) La forma de instrumentar la búsqueda dependerá de la herramienta de cálculo. Por ejemplo, con Matlab se podría trabajar, entre otras alternativas, con [v,po] = min(y) para obtener el valor ( v) y la posición del mínimo ( x(po) ). Si lo que importa es simplemente la posición, también se podría usar po = sum(f(x)<En) suponiendo la función f(x) creciente con x. Métodos tabulares

Cuando no es posible un tratamiento analítico, un modo de determinar cual es la mejor opción entre varias posibles consiste en armar una tabla, cuyos encabezamientos sean “Pros” (ó “Positivo”), “Contras” (ó “Negativo”), e “Implicancias”. Debajo de las dos primeras columnas se van anotando los factores que resultan favorables o desfavorables de tomar esa decisión, y en implicancias los resultados de la misma ( que pueden ser tanto favorables como desfavorables ). Asignando un puntaje a cada factor, y ponderándolos, la mejor alternativa es la que resulta con el mayor puntaje.

PROS CONTRAS IMPLICANCIAS ........ ........ ........

puntaje P1 puntaje P2 puntaje P3

(5)

(6)

(7)

(8)

Page 72: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización

64

64

Una variante de este método es el análisis de fuerzas y resistencias. En este caso se trata de ir definiendo para cada opción los factores que ayudan al objetivo ( fuerzas que empujan ), y aquellos que son desfavorables ( fuerzas que resisten ), figura 3. La idea es reconocer todos los factores que influyen en la decisión, y luego ver la manera de potenciar los factores favorables, y eliminar o reducir aquellos que se contraponen.

Cuando son muchos los objetivos a cumplir resulta conveniente armar una tabla de doble entrada: por un lado se anotan las características o factores que se van a tener en cuenta en la decisión, y por otro las distintas opciones. El problema que se plantea es como balancear características distintas. Esto se resuelve incluyendo un factor de ponderación para cada característica, que tome en cuenta su importancia. Luego se le asigna a cada opción un puntaje, según sea el grado de satisfacción de la característica. Tomando en cuenta el factor de ponderación, resultara ganadora aquella opción que sume el mayor puntaje. El mayor problema del método es la reducción a un único número, el puntaje, evitando que el mismo no sea establecido en base a subjetividades, y contemple asimismo el efectivo nivel de satisfacción de cada factor. Una manera de lograrlo es evaluando el costo o el esfuerzo requerido para alcanzar igual meta. Método del cálculo diferencial

Es el método más universal y simple, pero solo aplicable cuando el problema admite formulaciones analíticas. Utiliza la primera derivada para encontrar los extremos de una función diferenciable E(x). El procedimiento consiste en calcular la primera derivada de la función e igualarla a cero, para luego encontrar con la solución de dicha ecuación los valores en los que se dan los extremos. El método solo será aplicable para aquellas funciones E(x) que no tengan discontinuidades.

Con la derivada primera se obtienen los puntos críticos de la función (máximos y mínimos), y con la segunda derivada se determina si se trata de un máximo o de un mínimo.

0=dxdE

Maximodx

Ed ,02

2

<

Minimodx

Ed ,02

2

>

Debiendo los elementos del circuito cumplir una sola función objetivo, se cuenta con

grados de libertad para cumplimentar exigencias o criterios adicionales. La parte mas difícil en la mayoría de los problemas de optimización es como fijar los criterios para la optimización,

(9)

(10) (11)

Fig.3

Factor 1 Factor 2 Factor 3 Factor 4 Factor 5Peso 1 Peso 2 Peso 3 Peso 4 Peso 5

Totales

Opción 1

Opción 2

Opción 3

Opción 4

Objetivo

tiempo deaprendizajemenor costo

mayor soporte

no hay disponibilidaden el mercado

Fuerzas que empujanhacia el objetivo

Fuerzas contrapuestasal objetivo

50

20

50

50

Page 73: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización

65

65

cuando estos no están formulados como parte del problema. De estos, algunos son criterios básicos que juegan en todas las soluciones, a saber:

• criterio económico • satisfacción del modelo de cálculo • facilidad de realización • mejor cumplimiento del objetivo

Dejando de lado el aspecto económico, el cual siempre deberá considerarse, el modelo podría ir validándose a medida que se van determinando los valores y seleccionando los elementos del circuito. En otros casos recién cuando se hayan terminado los cálculos se podrá verificar si se satisfacen las condiciones del modelo, es decir si el cálculo cierra. En la facilidad de realización se incluyen variados aspectos, relacionados estos con el tipo de componente, el tipo de montaje, y con su valor. Específicamente, de cálculo pueden resultar valores que no sean obtenibles prácticamente, o que condicionan el armado o la realización de la placa de circuito impreso, y por ello deben desecharse.

En el caso en que deba cumplirse cierta característica, la pregunta es: ¿cómo podría optimizarse la misma? Acá entra a jugar un criterio importante: el de mínima variabilidad alrededor de la meta. Siguiendo el criterio de Taguchi, a medida que la solución se aparta del valor nominal establecido como meta se originan pérdidas (insatisfacción del cliente), que son mayores en la medida en lo que lo sea el apartamiento. En otras palabras, entre dos soluciones, es mejor aquella que, con elementos de igual costo, conlleva a menor dispersión en la especificación debido a variabilidad de los componentes. En tal caso, la optimización es puramente técnica. En otros casos importara que el elemento de mayor costo tenga la menor exigencia de tolerancia, en cuyo caso la optimización es económica. Será así, por ejemplo, cuando se aprovecha el hecho de que el costo de algunos elementos es independiente de su valor nominal, a condición de que se mantenga igual tolerancia y disipación.

Método de los multiplicadores de Lagrange

En el caso más general la función de prestación dependerá de n variables,

),....,( 21 nxxxfy =

las cuales estarán sujetas a un conjunto de restricciones

),.....,( 21 ni xxxhh = mi ,.......1=

Lo que se busca es determinar el conjunto de valores que hacen que la función objetivo tome un valor extremo bajo las restricciones impuestas. Si se planteara la condición de valor extremo considerando solo la función objetivo, resultaría un conjunto de n ecuaciones

0=∂

idxf

de las cuales se derivaría una solución que seria inaceptable porque no garantiza que se satisfaga el conjunto de las restricciones. Estas restricciones se dan en la mayoría de los problemas de ingeniería, en los cuales no son posibles todos los valores. Por ejemplo, para que sea posible la realización física en la mayoría de los casos será necesario que las xi tengan un valor positivo, por lo cual es necesario considerar dicha restricción en la búsqueda de la solución. Los multiplicadores de Lagrange permiten crear una función objetivo aumentada con variables artificiales, los multiplicadores de Lagrange, cuya finalidad es incluir en la función objetivo las restricciones propias del problema. Para entender y justificar el método supongamos que la función de prestación este dada por ),( 21 xxEP = (15)

(12)

(13)

(14)

Page 74: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización

66

66

para la cual se desea hallar los extremos bajo la restricción 0),(),( 2121 =−= cxxgxxh Hallando la derivada de (15) con respecto a x1 se obtiene

1

2

211 dxdx

xE

xE

dxdP

∂∂

+∂∂

=

y haciendo lo mismo sobre (16) es

01

2

21

=∂∂

+∂∂

dxdx

xh

xh

Para hallar un valor de x1 que sea un valor extremo de P se debe hallar el valor de x1 que anule la derivada en dicho punto. Es decir, se debe determinar el valor de x1 que cumple la condición

01

2

211

=∂∂

+∂∂

=dxdx

xE

xE

dxdP

bajo la restricción (18). Combinando estas expresiones resulta

2

1

2

1

1

2

xExE

xhxh

dxdx

∂∂∂∂

−=

∂∂∂∂

−=

o también

2

2

1

1

xExh

xExh

∂∂∂∂

=

∂∂∂∂

Si ahora se define λ en la forma

1

1

xhxE

∂∂∂∂

−=λ

y teniendo en cuenta (21), esta variable λ también debe satisfacer

2

2

xh

xE

∂∂

∂∂

−=λ

Esta variable es denominada multiplicador de Lagrange. Por (20) también es

1

2

1

2

dxdx

xE

xE ∂

−=∂∂

expresión que, teniendo en cuenta (23), se puede poner en la forma

1

21

1

2

1

2

1..

dxdxx

h

dxdx

xE

xE

∂∂

=∂∂

−=∂∂ λ

de la cual resulta

(16)

(18)

(20)

(21)

(22)

(23)

(24)

(25)

(17)

(19)

Page 75: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización

67

67

0.11

=∂∂

+∂∂

xh

xE λ

y repitiendo el proceso para la expresión (24), se obtiene también

0.22

=∂∂

+∂∂

xh

xE λ

Todo esto puede ponerse de un modo simplificado en la forma

( ) 0),(.1

211

=∂∂

=+∂∂

xLxxhE

( ) 0),(.2

212

=∂∂

=+∂

∂xLxxhE

conociéndose a L como el Langrangiano o función de prestación aumentada. Luego, los valores de x1, x2 y λ que determinan un valor extremo para la función objetivo se hallan resolviendo el conjunto de ecuaciones

0

0

0

3

222

111

==∂∂

=+=∂∂

=+=∂∂

hL

hExL

hExL

λ

λ

λ

en las cuales el multiplicador de Lagrange se trata como si fuera una variable independiente mas, en lo que respecta a las derivadas parciales. Se tiene por tanto, en este caso, un sistema de tres ecuaciones con tres incógnitas: x1, x2 y λ. Obsérvese que la restricción impuesta por la ecuación (32) no es más que otra forma de expresar la condición

0),( 21 =xxh

Además, de las expresiones (30) a (32) se deduce que

λ=−

+− )()( 2

2

1

1

hE

hE

la cual nos dice que en el máximo (o mínimo ), la relación entre las distintas Ei y las hi debe ser la misma.

Si se variara solo xi, entonces

iiii

xExxEE ∆=∆

∂∂

=∆ ..

Esta expresión indica que un cambio unitario en xi (∆xi=1) provoca un cambio Ei en E, ∆E=Ei. Pero además, considerando n variables, como siempre ha de ser

0...... 11 =++ nn dxhdxh

entonces para un cambio unitario en xi, ha de verificarse

nni xhxhh ∆++∆=− ....... 22

expresión que muestra como deben variar las demás variables xj ( j≠i) para que continúe cumpliéndose la restricción; se observa que la variación de estas debe ser ponderada por el valor de hi, valor este que mide la importancia o peso de la variable en la restricción.

(26)

(27)

(28)

(29)

(30) (31) (32)

(33)

(34)

(35)

(36)

(37)

Page 76: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización

68

68

e=(incerteza/2);x=a:e:b;y=f(x);[m,p]=min(y);minimo=x(p)

LISTADO 1

Métodos de búsqueda de intervalo Los métodos de búsqueda del intervalo óptimo tratan de definir el valor extremo de

una función con un error predeterminado; es decir, más que determinar el valor óptimo, tratan de hallar el intervalo dentro del cual se encuentra. Aunque pueden ser aplicados en general, los métodos de búsqueda de intervalo son especialmente apropiados cuando se opera con funciones trascendentes, o no analíticas, o bien cuando la búsqueda deba hacerse mediante la realización de experimentos.

Las técnicas de búsqueda de intervalo pueden clasificarse de muchos modos: según que la búsqueda sea discreta o continua, secuencial o no secuencial, local o global, o de convergencia rápida o lenta, etc. Esto plantea un doble paso en la optimización: el de seleccionar primero el método mas adecuado y recién después hacer la búsqueda del intervalo.

Estos procedimientos, especialmente importantes cuando los cálculos se debían hacer en forma manual, podría pensarse que actualmente han perdido en gran medida su sentido, dada la potencialidad de las computadoras personales. Son de utilidad, sin embargo, cuando se quiere operar con muy altas precisiones, o cuando el proceso de búsqueda debe hacerse experimentalmente, debido a que en tal caso por cada punto ( evaluación ) se debe hacer un ensayo, y de lo que se trata es de definir el óptimo con un mínimo esfuerzo de ensayos.

Búsqueda uniforme En la búsqueda uniforme del intervalo óptimo se deben realizar primero todas las

experiencias para definir luego, con los resultados, el intervalo dentro del cual se encuentra el valor óptimo, figura 4. Aunque el método es para la mayoría de los casos poco adecuado, es útil, sin embargo, cuando la función posee máximos y mínimos locales.

Si se trata de un proceso computacional, Matlab en particular se presta para este tipo

de tratamiento dado que permite obviar el uso de los poco eficientes for ...end. La debilidad de la búsqueda uniforme es la alta carga de computo cuando se requiere alta precisión en los cálculos, lo cual lo hace inviable, salvo que se admita un intervalo de incerteza elevado. El Listado 1 seria la herramienta computacional para el caso de usar Matlab, suponiendo que se trata de hallar un mínimo.

Búsqueda secuencial

En vez de hacer todos los cálculos y hallar después entre estos el óptimo, una mejor

opción seria, partiendo desde un extremo del intervalo, ir comparando cada nuevo valor con el anterior hasta encontrar la inversión en la tendencia. Cuando en base al resultado de cada experimento se decide continuar o no, según sea el resultado de la experiencia anterior, se habla de un método de búsqueda secuencial. Este es un método más eficiente que el anterior,

Fig.4

Page 77: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización

69

69

(40)

pero aplicable solo si la función es unimodal. Computacionalmente, la forma mas simple, aunque no mas eficiente, de implementar este método es la aplicación sistemática del for...end con un break (Listado 2 ).

Supongamos por ejemplo que se quiera encontrar dentro del intervalo (a,b) el valor que optimiza una función de prestación, con un error ±e . Subdividiendo el intervalo (b-a) en n subintervalos,

1+⎟⎠⎞

⎜⎝⎛ −

=e

abenteron

entonces, mediante la rutina del Listado 2 se halla el subintervalo dentro del cual se encuentra el óptimo a+(i-2).e ≤ x ≥ a+i.e Si bien el método de búsqueda secuencial uniforme es una mejora respecto al método uniforme, el tiempo de computación puede ser igualmente excesivamente grande si e es muy pequeño. Una mejor alternativa sería hacer la búsqueda, primero tomando subintervalos grandes y hallado el subintervalo dentro del cual esta el máximo (o el mínimo), repetir la búsqueda tomando ese subintervalo como nuevo intervalo de búsqueda. Nuevamente, hallado el nuevo subintervalo dentro del cual esta el óptimo, se vuelve a repetir el proceso hasta llegar a definir un subintervalo de valor igual al error admitido, figura 5.

Otra posible forma seria la siguiente: Supóngase que se debe hallar el valor de x para el cual la función E=E(x) pasa por su mínimo valor. Supongamos que partiendo desde uno de los extremos se haya evaluado la función en los puntos xi - ∆x y xi , y se hayan determinado dos valores E(xi-∆x) y E(xf) tales que

)()( ii xExxE <∆− Esto significa que se ha pasado por un mínimo para ese valor de x, el cual estará

comprendido dentro del intervalo:

ii xxxx <<∆−

(38)

(41)

Fig.5

n=round((b-a)/e) y(1)=f(a); y(2)=f(a+e); signo=sign(y(2)-y(1)); for i=2:n y(i)=f(a+i*e); if sign(y(i)-y(i-1))+signo==0 x=a+(i-1)*e break end end

LISTADO 2

(39)

ba

xi-2 xi-1 x

a1 b1

an-1 bn-

1

n pasos

2.εxi = xi-1+

Page 78: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización

70

70

∆xxf -∆x xf

x1 x2

1

2

34 56

7

8

1

9

8 7

654 3

2

9

Si ahora se quisiera reducir el intervalo de incertidumbre, se parte el incremento ∆x por dos y se invierte el proceso de búsqueda. El proceso se repite hasta encontrar un intervalo de incertidumbre menor que un cierto ε predefinido, figura 6. Búsqueda dicotómica

La búsqueda secuencial se hace más eficiente si en cada paso de búsqueda el intervalo

de incerteza se reduce a la mitad. Se habla en tal caso de una búsqueda secuencial dicotómica. Este método requiere determinar en cada prueba dos valores muy próximos entre si, elegidos en el centro del intervalo, figura 7. Con estos dos valores se puede determinar de que lado de dichos puntos esta el óptimo. Si se busca un mínimo, y los valores obtenidos fueran los indicados en la figura 7, entonces el mínimo se encontrara en el subintervalo izquierdo.

Es claro que se si quiere la determinación del valor extremo ( máximo o mínimo,

según corresponda ) dentro de un intervalo de incerteza δ, entonces serán necesarios

⎟⎠⎞

⎜⎝⎛=

δLp 2log

pasos, y como por cada paso se requieren dos evaluaciones, entonces

⎟⎠⎞

⎜⎝⎛==

δLpn 2log.2.2

será el total de experiencias requeridas.

Búsqueda de Fibonacci Muchos problemas de ingeniería pueden ser optimizados de un modo sencillo cuando se cuenta con un modelo analítico que los representa; en otros casos, la optimización debe valerse de ensayos experimentales. Si este es el caso, importa usar un método de búsqueda que permita llegar al óptimo con mínimo esfuerzo de búsqueda. Esto sucede cuando la función f(x) a optimizar no es conocida explícitamente, pero puede ser evaluada experimentalmente. Solo se requiere que la función sea unimodal, y conocer además el intervalo L dentro del cual hacer la búsqueda del óptimo,

L= (b-a)

Prefijado el número de ensayos n, se trata de determinar en base a los mismos el menor valor del intervalo Ln=(bn-an) dentro del cual se encuentra el óptimo. Obviamente, la menor cantidad de ensayos que permite reducir el intervalo de incerteza son dos: puntos x1 y x2, figura 8. Estos puntos dividen al intervalo en tres secciones. En función del valor que tome la

Fig.6 Fig.7

(44)

(42)

(43)

x

f(x)

ba

f(xi)

xi xi+∆ x

oo

Page 79: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización

71

71

prestación en dichos puntos, y según el extremo que se busca ( máximo o mínimo ), se decidirá cual de las dos secciones extremas deberá descartarse. Si por ejemplo se tratara de hallar un máximo, como f(x1)>f(x2), figura 8, se debería descartar la sección derecha (Sd).

El procedimiento de búsqueda a desarrollar se apoya en las tres reglas siguientes:

1. el intervalo de incerteza que reste después de cada evaluación debe tener igual valor, independientemente de cual haya sido la sección descartada

2. debe aprovecharse para la siguiente decisión el resultado del ensayo que esta ubicado dentro del intervalo de incerteza ganador

3. Los puntos de prueba deben ser seleccionados de modo tal que el intervalo de incerteza que reste sea el menor posible; o planteado de otro modo, cada evaluación debe permitir descartar el mayor intervalo posible

Se desarrollara un método de búsqueda apoyándose en estas reglas. Satisfacer la primer condición requiere que los valores de la experimentación, puntos x1 y x2, sean establecidos de modo que se verifique

201 xLxxx o −+=−

vale decir, las dos secciones ubicadas a ambos extremos deben ser siempre iguales.

Supongamos ahora haber llegado, después de realizar n ensayos, al intervalo final de incerteza L. Para simplificar, supondremos que este intervalo sea de valor unitario, L(1)=L=1. La idea es hallar la magnitud que debería tener el intervalo inicial L(n) para que después de los n ensayos resulte el intervalo de incerteza L=1, aplicando reiteradamente el método basado en los tres principios anteriores. Evidentemente el intervalo final de incerteza debe resultar de los dos últimos ensayos, el n-1 y el n, figura 9. Por ser los últimos no es de aplicación la segunda condición, pero si la primera y tercera. La única manera de satisfacer ambas es dividiendo el intervalo en dos mitades, y probar en dos puntos cercanos entre si, ubicados al centro del intervalo L(2), figura 9, es decir tales que

δ+= −1nn xx con δ tendiendo a cero, y en tal caso

LLLL =≈≈ )1(21

Si se buscara un máximo, como f(n-1)>f(n), es obvio que el mismo estará en la sección derecha; es decir, en base al nuevo ensayo n y el resultado del ensayo anterior n-1, del intervalo anterior L(2) se deriva el intervalo final de incerteza L = L(1) ≈ L1 ≈ L2, de lo cual claramente resulta L(2)=2L.

Fig. 9

(46)

Fig.8

(45)

f(xn-1)

xn-1xn

L(2)

f(xn-1)

xn-1 xnL1 L2

f(xn)

Si Sd

L(n)

f(x1)

f(x2)

x1=x1(n) x2=x2(n)

Sc

x0

(47)

Page 80: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización

72

72

(51)

(50)

Veamos como juega la tercera condición. Supongamos que a cierta altura de los ensayos el intervalo se haya reducido a La, figura 10, y que sean e1 y e2 los dos ensayos que deben ser considerados en este intervalo para definir un intervalo de incerteza más reducido. En base al segundo principio, uno de estos ensayos se supone que ya fue realizado: podría tratarse de cualquiera de los dos, e1 o e2. Por la condición primera, si fuera e1, entonces el intervalo anterior seria el Lc, mientras que si fuera el e2, el intervalo anterior seria el Lb. Cualquiera de los dos satisface la primera regla, pero solo Lb satisface la tercera. Este es por lo tanto el único posible.

De esto se deriva la condición de vinculación entre intervalos sucesivos, tal como muestra la figura 11. Como surge claramente de dicha figura, se verifica que

21 −− += nnn LLL

expresión recursiva que coincide con la denominada serie de Fibonacci.

Como la sección Ln-2 es la que se agrega al intervalo Ln-1 para formar el intervalo Ln, se concluye también que la proporción de intervalo descartado por cada ensayo esta dado por

n

nn L

Ld 2−=

Si se fija el intervalo final L1 en L, para poder determinar el intervalo L2 aplicando la formula (48) se debería conocer el valor del intervalo L2-2 =L0, que claramente no existe. Sin embargo, para obtener una expresión de validez general se define un intervalo ficticio L0. El valor de este intervalo ficticio se puede establecer, dado que se conoce L2=2.L1, por lo cual en base a (48)

LLLL =−= 120

Cuando se hace L=1, la serie de números así definida se conoce como serie de Fibonacci, la cual determina la expansión del intervalo de incerteza. Un termino j cualquiera de la serie de Fibonacci se define por

21 −− += jjj FFF

e1

e3

e2

La

Lc

Lb

e1

e2 e3x2

x1

x2

x1

en-1

Ln-2

en

x2

x2x3=Ln-2

Ln

Ln-1

xn=Ln-1

x3=Ln-2

en-1en-2

en-2en-3

Fig.10

(49)

(48)

Fig.11

Page 81: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización

73

73

0 1 2 3 4 5 6 7 8 9 10 11 12 13

1 1 2 3 5 8 13 21 34 55 89 144 233 377

0.5 0.3333 0.4 0.375 0.3846 0.381 0.3824 0.3818 0.382 0.3819 0.382 0.382

n

Fn

dn

L(1)=1

L(2)=2

L(3)=3

L(4)=5

L(6)=13

L(5)=8

2

6

5

4

3

Reducciondel intervalode incertezan

cantidad deensayos

Esta expresión recursiva, requiere que sus dos primeros términos sean prefijados en la forma,

Fo = 1 , F1 = 1

Aplicando la expresión (51), teniendo en cuenta (52), se pueden determinar los sucesivos términos de la serie de Fibonacci, así como la proporción de intervalo descartado con cada ensayo, basándose en la expresión (49).

Mostraremos ahora le potencialidad del método realizando n ensayos. Como se desprende de la figura 12, con n ensayos, el intervalo final de incerteza resulta de dividir el intervalo inicial por el valor del n-simo término de la serie de Fibonacci. Obviamente, el valor óptimo corresponderá a un punto dentro de dicho intervalo, correspondiendo al punto medio de dicho intervalo el menor error posible, de modo que el valor óptimo quedará así determinado con una incerteza dada por

nF

Le2

±=

La aplicacion del metodo supone que previamente este definida la cantidad de ensayos a ejecutar, valor que puede hallarse en base a la expresión (53), donde

L= (b-a) Determinando el valor de Fn , en base a (53), el valor de n debe ser el menor valor

para el cual se verifica )(

2)1( nF

eLnF ≤≤−

Determinado el valor de n por la condición (55), los dos primeros valores para los cuales se debe realizar los ensayos son elegidos de modo que estén separados de los extremos del intervalo en un valor

LdLF

Fd n

n

n ..21 == −

vale decir, figura 13,

12

11

dbxdax

−=+=

o también L

FF

axn

n 21

−+=

(53)

(55)

(57) (58)

(59)

(52)

Fig.12

(54)

(56)

Page 82: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización

74

74

d1 d 1f1 f2

21 3a bL1 x1 x2

em2 aem2 bε2a

ε2b

ε e1

e2

em1

xa bx1 x2

f(x) Ln

dn.Lndn.Ln

y L

FF

LF

FLL

n

n

n

n 121 . −− =−=

Hallados los valores de x1 y x2, si los resultados fueran los indicados en la figura 13 y se buscara un máximo, es claro que el intervalo 3 puede ser descartado; es decir, el máximo se encuentra en el subintervalo L1. El procedimiento se repite ahora sobre el intervalo L1, y así sucesivamente hasta el n-esimo ensayo. Obsérvese que en el método de búsqueda dicotómica, cada prueba exige obtener el valor en dos puntos, mientras que el método de Fibonacci solo exige en cada paso una determinación adicional. Visto de otro modo, con el método dicotómico cada dos ensayos se reduce el intervalo de incerteza un 50%, mientras que en el método de Fibonacci se reduce aproximadamente un 75%. La figura 14 compara la reducción del intervalo de incerteza de ambos métodos en función del número de pruebas, partiendo de un intervalo inicial L=1. El método de Fibonacci, además de su mayor eficiencia, tiene otra ventaja. El método dicotómico supone que la evaluación debe hacerse en dos puntos próximos. Cuando se realizan ensayos experimentales, los resultados de los mismos están siempre sujetos a error experimental. Esto implica que el valor real puede diferir del valor medido. Supongamos que sea em1 el valor medido y ε el error de medición, figura 15a. En tal caso, el verdadero valor ev será

εε +=≤≤−= 2211 mvm eeeee por lo que solo si se cumple

222 ee aam ≤+ ε o 122 ee bbm ≥− ε

se puede asegurar que el método no lleva a una falsa decisión, figura 15b.

La falta de resolución es otra limitación importante para la aplicación de estos

métodos. No es suficiente que la función objetivo sea unimodal, debe también asumir valores

Fig.15

Fig.14

(60)

(61)

(112)

Fig.13

a) b)

(62)

Fig.16

Page 83: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización

75

75

Fig.18

dentro del intervalo de búsqueda que estén por encima del mínimo valor que puede ser observado. Por ejemplo, supóngase que la función toma valores no nulos sobre un intervalo restringido de la variable x, figura 16. Cuando se tiene un comportamiento de este tipo, para hacer posible la búsqueda debe antes determinarse el rango dentro del cual la función objetivo toma valores que puedan ser discernidos con el instrumental usado.

Por otro lado, el método de Fibonacci supone que el valor extremo se ubica en uno cualquiera de los Fn subintervalos en que se puede dividir el intervalo de búsqueda inicial Ln, y supone que todos son iguales, lo cual no necesariamente es así. Esto sucede si por ejemplo el valor óptimo debe restringirse a un conjunto de valores preestablecidos, definidos por ejemplo en base a una escala de tolerancia normalizada.

Las escalas de tolerancias definen el conjunto de valores disponibles por década, de manera que dos valores sucesivos, considerando sus tolerancias extremas, se establecen con mínimo o nulo solapamiento. Esto implica que la relación entre dos valores contiguos de la escala es aproximadamente constante, y que además según sea la tolerancia será el número de valores por década. Por caso, a una tolerancia del 5% le corresponden 24 valores por década, lo cual define la escala E24. Por la forma en que son definidos, el conjunto de valores se alinea según una recta en un gráfico semilogarítmico, figura 17, con una densidad de los valores posibles de ser óptimos apiñados hacia los bajos valores, figura 18. Visto de otro modo, la magnitud del intervalo de incerteza dependerá del valor alrededor del cual se ubique el óptimo, como muestra la figura 18. Esto implica que la cantidad de ensayos para llegar al óptimo no va a ser siempre la misma: dependerá del cual sea el intervalo ganador. Si el óptimo se ubica en su valor mas bajo, el intervalo de incerteza final es más chico que si se ubica en su valor más alto, y por lo tanto se requerirán más ensayos para llegar al óptimo, figura 19. Si el número de ensayos se determina considerando el intervalo más pequeño, de no resultar ese el ganador, el método pierde eficiencia. Un modo de optimizar el proceso de búsqueda sería, después de realizar cada experiencia, recalcular el número de ensayos necesarios en base al nuevo intervalo más pequeño con posibilidad de resultar ganador.

L a

L b

valor optimo

Numero de ensayos

Fig. 18 Fig. 19

Fig.17

Page 84: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización

76

76

a) b) c) d)

La desventaja del método, de cualquier modo, es que de entrada no es previsible la cantidad de ensayos que deben realizarse. Además, como los ensayos deben hacerse solo con valores normalizados, es claro que la eficiencia del método se vera reducida, lo cual implicara que el número de ensayos será superior al previsto para el caso de una variación continua.

La pérdida de eficiencia del método se debe a que en su aplicación no se están respetando los principios en los que se fundamenta. La figura 20a muestran todos los valores correspondientes a una tolerancia del 5% comprendidos en dos décadas. Es posible observar que, dependiendo de que lado este el intervalo ganador será el número de valores descartados. Ahora bien, la primer regla exige que cualquiera sea la sección ganadora, esta debe contener igual cantidad de valores que los que se descartan en la sección perdedora. Para conseguir esto, el intervalo debe ser definido considerando la cantidad de valores sobre los que esta basada la decisión, figura 20b, o lo que es igual, operar con una longitud de intervalo variable. Procediendo de esta manera el número de ensayos será independiente de cual sea el valor ganador. Podrá variar solo si el valor extremo fuese el primer o último valor de la serie, lo que necesariamente agregaría un valor más a la medición.

Por otro lado, en el último paso de decisión no es posible aplicar el método, ya que, debiendo siempre trabajar con valores estándar, no es posible probar con un valor muy cercano al valor que se retiene de la evaluación anterior, figura 21a, lo cual permitiría reducir el intervalo de incerteza en L/2, figura 21b. Debiendo realizar las mediciones con valores normalizados, la prueba puede llevar a uno de los resultados indicados en la figura 21c y 21d, con desigual reducción del intervalo de incertidumbre. Según el caso será necesario realizar, figura 21c, o no, figura 21d, un ensayo adicional.

a

bFig.20

Fig.21

Page 85: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización

77

77

(66) L=xMax –xmin

Búsqueda por relación áurea El principal problema del método de búsqueda de Fibonacci es que requiere de

antemano saber la cantidad de ensayos a realizar. Se puede definir un nuevo método de búsqueda sin prefijar de antemano el número de ensayos, usando la propiedad que resulta del método de Fibonacci cuando el número de ensayos es elevado. En tal caso, la proporción de intervalo descartado en cada ensayo se mantiene constante. Es decir, cuando n es alto, la relación

n

nn F

Fd 2−=

tiende a un valor constante, figura 22. Asimismo, dado que

21 −− += jjj FFF

resulta también que la relación entre dos términos sucesivos de la serie de Fibonacci, relación entre intervalos sucesivos, dada por

n

n

n

n

FF

FF 21 1 −− −=

tiende al valor 0,618 si n>8. Si se usara esta relación cualquiera sea el valor de n, no seria necesario precisar los ensayos a realizar. Como muestra la figura 23 el método de búsqueda por sección áurea es solo levemente inferior al método de Fibonacci y superior al método de búsqueda dicotómica.

Supongamos definido el intervalo de variación para la variable independiente x,

dentro del cual se supone hay un valor que hace óptima la prestación, siendo entonces, el método exige evaluar la función objetivo en dos puntos interiores del intervalo, figura 24, definidos de la siguiente manera:

Cuando los valores xi deben pertenecer a un conjunto de valores normalizados, los

valores obtenidos por (67) y (68) deben acercarse a algunos de los valores de la serie, con intervalos conteniendo igual cantidad de valores. En lo demás, el procedimiento es idéntico a la búsqueda de Fibonacci, y se diferencia solo por tener una convergencia más lenta. Al método se lo conoce como búsqueda por sección áurea, debido a que la relación 0.618 fue aplicada por los griegos en el diseño de edificios, buscando cumplir con la proporción

618.0=+ altoancho

ancho

relación que era denominada relación de oro, o relación áurea.

LxxLxx

Max ⋅−=⋅+=

618,0618,0

2

min1 (67) (68)

(65)

Fig.22 Fig.23

(63)

(64)

Page 86: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización

78

78

Fig.24

El método es de interés debido a que en muchos casos es difícil definir de antemano el

número de experimentos a realizar, debido a que se desconoce la variación de la función dentro del intervalo. Supongamos por caso que se trata de determinar la frecuencia de resonancia de un circuito cuyo Q es desconocido. La incertidumbre admitida para la determinación de la frecuencia de resonancia resultara de evaluar:

• la capacidad del instrumental de medición; si fuera ε la discriminación del mismo, el

intervalo final de incerteza dependerá del Q del circuito, figura 25, por lo cual no es posible determinar el número de experiencias de antemano

• la pérdida de selectividad, o de ganancia, que resulta si se define una frecuencia errónea de sintonía. Como se observa en la figura 25, si fuera por ejemplo ε la perdida de ganancia admitida, el intervalo final de incerteza dependerá del Q del circuito, y si este es desconocido no hay forma de saber de antemano la cantidad de ensayos que será necesario ejecutar.

Método de gradiente

Muchos problemas de optimización requieren tratar con más de una variable, y si bien es posible extender en muchos casos técnicas de búsqueda sobre intervalo, como el método de Fibonacci, o el de relación áurea, estos exigen realizar muchas búsquedas unidimensionales de un modo secuencial hasta la obtención del máximo (o mínimo) para cada dimensión. El problema que esto acarrea es que la búsqueda multidimensional, basándose en búsquedas unidimensionales, no es eficiente, exceptuando el caso en que una de las variables pueda tomar solo unos pocos valores.

Cuando se hace la optimización de una variable mediante búsqueda de intervalo, a las restantes se le asignan los valores óptimos que se han encontrado hasta ese momento, y se procede en forma reiterada hasta lograr la convergencia a un punto.

Debido a que el método por búsquedas sucesivas sobre cada variable tiene una convergencia lenta, esto lo hace poco adecuado. Lo conveniente es hacer la búsqueda del óptimo considerando todas las variables al mismo tiempo, basándose en la información sobre la pendiente de la función, o sea, su gradiente. La idea es, en cada nuevo punto, hacer la búsqueda en la dirección de máxima pendiente.

Supongamos que la función de prestación dependa de dos variables

),( 21 xxEE = con curvas de nivel como las indicadas en la figura 26. Partiendo de un punto P0, en el método por búsqueda de intervalo primero se hace la búsqueda del valor óptimo de x2 sobre el intervalo (a,b), bajo la condición x1=x10, lo cual lleva al punto P1. Luego, la búsqueda del valor óptimo de x1 sobre el intervalo (c,d), asignando a x2 el valor que corresponde al punto P1, x21, lo cual lleva al punto P2, y así sucesivamente hasta llegar al óptimo. En el método del gradiente se produce un cambio simultáneo en las dos variables, moviéndose sobre la línea g. Esto hace que se llegue a la convergencia en forma simultánea en ambas variables.

xMaxx1 x2xmin

x x

Fig.25

ε ε

f1 f2 f1 f2∆f1 ∆ f2f f

e e

(69)

Page 87: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización

79

79

Supongamos para la función E las curvas de nivel indicadas en la figura 27, y que sea

O el punto óptimo a hallar. Partiendo de un punto arbitrario Po, para el mismo se debe definir el vector de gradiente N, vector que es normal a la tangente T a la curva de nivel en ese punto,

2

2

1

1

.. IxEI

xEEN ⎟⎟

⎞⎜⎜⎝

⎛∂∂

+⎟⎟⎠

⎞⎜⎜⎝

⎛∂∂

=∇=

y sea n el vector unidad en la dirección del gradiente

2

2

2

1

2

2

1

1

..

⎟⎟⎠

⎞⎜⎜⎝

⎛∂∂

+⎟⎟⎠

⎞⎜⎜⎝

⎛∂∂

⎟⎟⎠

⎞⎜⎜⎝

⎛∂∂

+⎟⎟⎠

⎞⎜⎜⎝

⎛∂∂

=

xE

xE

IxEI

xE

n

el cual marcara la dirección donde debe situarse el próximo punto en el que se debe hacer la nueva evaluación de la función objetivo. Para definirlo exactamente se usan métodos de interpolación polinomial, por ser los más efectivos cuando la función a minimizar es continúa. Suponiendo que en el paso de búsqueda k se este con valores xi(k) , entonces la nueva iteración se hará en )1( +kxi , donde

iiiii xkxkxkx ∆+=∆+=+ )(.)()1( α

siendo αi la proyección de n en la dirección xi, y ∆ un parámetro escalar que mide la magnitud del paso. Para dos variables, x1 y x2, los valores de los incrementos de cada variable serán por tanto

2

2

2

1

11

).(

⎟⎟⎠

⎞⎜⎜⎝

⎛∂∂

+⎟⎟⎠

⎞⎜⎜⎝

⎛∂∂

∆∂∂

=∆

xE

xE

xE

x

2

2

2

1

22

).(

⎟⎟⎠

⎞⎜⎜⎝

⎛∂∂

+⎟⎟⎠

⎞⎜⎜⎝

⎛∂∂

∆∂∂

=∆

xE

xE

xE

x

Como lo que se busca es un máximo (o un mínimo), luego de cada iteración se evalúa la

función E hasta detectar un aumento ( o una disminución ). Cuando esto ocurre, se invierte la dirección del gradiente y se parte el incremento ∆ a la mitad. Por repetición de este proceso se va estrechando la incerteza hasta cumplir el objetivo. El método se termina cuando se satisfacen los dos criterios:

1. los valores en los que se obtiene el extremo de la función objetivo se han determinado con una incerteza menor a un valor definido de antemano,

2. las derivadas en ese punto son menores a un valor prefijado ( condición de extremo )

(70)

(72)

(73)

Fig.26 Fig.27

(71)

T

t

X2

Po n

E1

I2

I1 X 1

N

OE2 E3

X2

X1

a

b

dc

P3

P0

P1P2

x10

x2 1

g

(69)

Page 88: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Optimización

80

80

x1

x2

E(x1,x2)

x1<f1(x2)

x1>f2(x2)

Método de programación lineal

Los métodos de programación lineal son aplicables a funciones de prestación E lineales, donde el termino “programación” significa que las distintas variables deben ser programadas, en el sentido de seleccionadas, para optimizar una función de desempeño del tipo lineal. El término fue introducido con antelación a la aplicación de programas para computación. Es decir, la palabra programación no tiene nada que ver con la elaboración de un programa para su ejecución en computadora.

En los problemas de programación lineal la función de desempeño esta dada por una ecuación algebraica lineal, a la cual se agregan otras ecuaciones algebraicas lineales que actúan como restricciones para la optimización del problema. Es decir, en general habrá una función de prestación

nn xaxaE ......... 11 ++= y un conjunto de restricciones del tipo

ininii Cxbxbh ≥=≤++= ,,.......... 11

Cuando el número de variables lo permite es conveniente utilizar un método de solución gráfico, transformando las restricciones expresadas por desigualdades en igualdades a fin de determinar las condiciones limites de la región de solución, figura 28. Este método es de utilidad cuando existe, más que un valor, un conjunto de valores que satisfacen las condiciones del problema. Es decir, cuando la solución esta representada no por un punto sino por una región. Aplicación de las herramientas de optimización de MATLAB

MATLAB® tiene una colección de funciones especialmente dedicadas a los problemas de optimización, en su Optimization Toolbox. Estas herramientas incluyen diversos tipos de rutinas de optimización, que permiten, entre otras posibilidades, la optimización no lineal con y sin restricciones, la resolución de problemas de minimización, programación lineal y cuadrática, ajuste por mínimos cuadrados, etc. Además, todas estas funciones son archivos Matlab de tipo m dedicados a implementar algoritmos especializados de optimización, cuyos códigos se pueden ver y alterar, sirviendo de plataforma para introducir variaciones sobre las mismas, guardándolas obviamente con otro nombre.

Fig.28

(74) (75)

Page 89: Libro Materia

Innovación y

Prospección

Cuanto más original es un descubrimiento, mas obvio parece después

ARTHUR KOESTLER

La supervivencia de una empresa ya no depende solo de que cumpla con los siguientes cuatro requisitos, considerados por mucho tiempo como suficientes:

• Tener el producto que el mercado requiere y dominio tecnológico sobre el mismo • Tener capacidad de manufactura y dominio sobre los procesos • Contar con un mercado o tener capacidad para su desarrollo • Disponer de un canal de distribución o comercialización adecuado

Según J.A.Barker (Paradigms, Harper Collins,1993), la clave para la supervivencia

de una empresa depende actualmente de cómo esta considere los tres siguientes factores:

• Anticipación, ligada a la prospección, o sea a la necesidad de saber que es lo que se requerirá en un futuro, para saber a donde orientar los esfuerzos y como evolucionaran las tecnologías

• Innovación, ligada a la necesidad de lograr el producto adecuado a las nuevas necesidades

• Excelencia, ligada a la calidad, medida por la satisfacción de las expectativas Ciertamente, la función del ingeniero es hallar una solución para los problemas. Pero,

con entornos cambiantes se requiere un proceso de innovación permanente. La innovación esta estrechamente ligada a la creatividad. Hallar soluciones creativas requiere contar con muchas entradas, obtenidas normalmente por lectura de material relacionado con el área, para poder definir una salida.

La creatividad puede definirse como la habilidad para sintetizar nuevas combinaciones de ideas y conceptos de una forma que sea útil a la solución de algún problema. Al principio puede ser simplemente un esbozo, que se va luego completando desde lo simple a lo complejo.

En todo proyecto el ingeniero se enfrenta a un número enorme de posibles cursos de acción. Esto lo obliga a evaluar cada alternativa explícitamente, en función de criterios que deberán ser establecidos y ponderados a fin de hallar la mejor solución. Pero, cuando el individuo es verdaderamente creador percibe para los problemas soluciones poco usuales, las cuales, además de ser originales, son a la vez muy efectivas. La originalidad de por si no es suficiente; la creatividad debe también redundar en un mejor aprovechamiento de los conocimientos y una optimización en el uso de los recursos. En resumen, el aporte creativo aplicado a una solución particular se mide por el grado en que la solución:

• es efectiva y tiene éxito en la solución del problema • desarrolla un nuevo concepto de diseño, saliendo de lo convencional, y es además una

solución simple, elegante e ingeniosa En un tiempo se pensó que la facultad creadora era un don natural que dividía a la

humanidad en dos especies, la creadora y la no creadora. Sin embargo esta creencia ha dado

Page 90: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección

82

82

paso a la opinión de que la facultad creadora se estimula y desarrolla, y es un don que poseen en mayor o menor grado todas las personas. Lo cierto es que algunas sociedades han desarrollado una cultura que favorece la invención y la innovación tecnológica, mientras que en otras este don permanece aletargado. En las primeras se ha desarrollado una actitud en la cual prima la búsqueda continua de una mayor eficiencia, un mejor aprovechamiento de los recursos y una mejor satisfacción de las necesidades. Esto lleva a un continuo desarrollo de mejores soluciones, o como suele decirse, a la búsqueda de la excelencia. Otras culturas son mas bien dogmáticas, asumiendo frente a los problemas actitudes sumisas, conformista o de resignación.

Una justificación a los dos puntos anteriores lo constituye el hecho de que personas que pasan de una cultura que no favorece la invención a otra que si lo hace, logran destacarse en estas, debido a que han podido desarrollar su don personal en un ambiente propicio.

La creatividad ha sido relacionada con la edad de las personas. En este sentido vale la observación de Del Buono, cuando explica que planteada la pregunta: ¿para que puede ser útil una carretilla de ruedas ovaladas?, figura 1, encontró que la respuesta era muy diferente según que la audiencia fueran niños de escuela primaria o grupos de dirigentes empresariales. Del Buono manifiesta que encontraba respuestas en los niños; en los mayores solo una sonrisa.

En USA se han hecho estudios que muestran que los profesionales de ingeniería son

más creativos al finalizar su formación universitaria, figura 2. Muestra esto que la creatividad máxima se manifiesta en una edad en la que:

• La persona tiene sus conocimientos frescos y actualizados • No tiene preconceptos • Hay menor cantidad de compromisos formales

La creatividad se da en todas las áreas de la actividad humana. En el área de la ingeniería

podría decirse que la creatividad es el uso del conocimiento y la tecnología en la búsqueda de mejores soluciones a problemas existentes: No hay ingeniería si no hay creatividad.

Los individuos que se orientan a seguir carreras relacionadas con el mundo material, tienen dos opciones básicas:

• realizar investigación, para aumentar la comprensión y los conocimientos. Es

desarrollado por la ciencia. Es un modo de convertir dinero en conocimientos. • hacer ingeniería, aplicando los conocimientos disponibles a propósitos humanos

específicos. Es un modo de convertir conocimientos en dinero. En ambos la base es la creatividad. Esta puede ser incentivada apoyándose en

diferentes métodos, algunos de los cuales se describirán mas adelante. La labor del ingeniero esta relacionada con la creación de objetos materiales para

servir a las necesidades humanas. En la búsqueda de este propósito, el ingeniero encontrará que la ejecución de su labor requiere conocimientos científicos algunas veces disponibles y otras no. En ausencia de estos, procede con un programa de investigación, haciendo hipótesis juiciosas acerca de los principios en los cuales se puede basar el diseño, hasta llegar a soluciones satisfactorias. Podría decirse que los desarrollos de la ingeniería no pueden existir sin la investigación. La investigación suele dividirse en:

Fig.2 20 30 40 50 60edad

Capacidadinnovadora

Fig.1

Page 91: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección

83

83

• Pura: detrás del conocimiento por el conocimiento mismo • Aplicada: detrás del conocimiento por un interés especifico. La investigación aplicada

no transforma conocimientos en dinero en forma inmediata; solo redunda en beneficios cuando ese conocimiento se transfiere para aplicaciones de ingeniería El desarrollo de ingeniería puede resultar en algo nuevo o distinto, reconocido como

una invención. La invención no resulta en un producto que concluye en el mercado en forma inmediata. Esto recién ocurre después de una etapa innovadora, figura 3. Pasar de la idea al lanzamiento al mercado requiere normalmente de un gran esfuerzo, que en muchos casos implica trasponer una frontera tecnológica, y en otros afrontar el desarrollo de ese nuevo mercado. El desarrollo de nuevos productos esta asociado a altos riesgos y costos, figura 3, y esto hace que la mayoría de las empresas se vuelquen más a la imitación que a la innovación, con poco o nulo esfuerzo de invención. Muchas empresas ven la I&D solo como un soporte para sus negocios, y para ellas cualquier inversión en investigación que no tenga retorno directo vinculado a su área de negocios es considerado un derroche.

Conocimiento

Investigación Invención Innovación

Idea Producto Difusión Imitación

Comercialización

tiempo

costos y riesgos

Esto justifica que si se hace un balance de las mayores invenciones se encuentra que

en una proporción de 3 a 1 estas recaen más en individuos que en empresas. Esto podría llevarnos a pensar que la invención es predominantemente una tarea que se apoya en la creatividad individual. De ser así, habría una gran limitación para futuras invenciones e innovaciones, dado que estas necesitan cada vez mayores recursos, solo disponibles en empresas, y además, la mayor complejidad inherente de los equipos requiere también del aporte de personas con conocimientos en áreas muy diversas. Esto podría llevarnos a inducir que hoy en día no hay lugar para el inventor solitario; pero tampoco esta es una verdad incontrovertible. Es cierto que actualmente se necesitan grandes recursos, muchos más de los que una sola persona pueda disponer, pero también lo es que:

• Los inventores son personas con una mente divergente, que difícilmente puedan integrarse

a un grupo de trabajo, y si lo hacen, raramente producirán algo original debido a que deben ajustar sus ideas al esquema de trabajo del grupo, que tiende a disciplinar a cada individuo hacia objetivos bien definidos.

• El inventor necesita, además de materiales e instalaciones, mucho tiempo. Normalmente dispone de los dos primeros cuando integra una organización o grupo empresarial de I&D, pero de tiempo dispone hasta cierto límite. Dentro de una empresa, el departamento de I&D debe producir resultados en tiempos precisos. Si al cabo de un tiempo una línea de investigación no logra ciertas metas, es posible que la dirección de la empresa decida discontinuarla. Una decisión en tal sentido puede impedir que se alcance un logro importante, posible si se dispusiera de un poco más de tiempo. Esta es la ventaja de la dedicación personal. El inventor solitario, por el contrario, no se fija en el tiempo, y la confianza en sus ideas es tan grande que ve las dificultades, decepciones y resultados adversos solo como pequeños desafíos u obstáculos que debe vencer, y la escasez de recursos es solo uno más, no reparando en medios con tal de lograr su propósito.

Fig.3

Page 92: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección

84

84

Algunas historias creativas

Una historia de guijarros

En su libro Curso de Creatividad (El Ateneo,1988) Guerrero, relata una historia, que describiremos muy abreviada, la cual muestra lo que es un enfoque creativo en la solución de un problema. Cuenta: Hace muchos años, una persona que debía dinero si no lo devolvía en el término convenido podía ser encarcelada. Un comerciante que no podía devolver la suma adeudada recibió de su prestamista, descrito como viejo y avaro, la siguiente propuesta: Si el comerciante le permitía casarse con su bella hija daba por cancelada la deuda. Como el comerciante y su hija no parecían muy dispuestos a la propuesta, al prestamista se le ocurrió resolver la cuestión haciendo que la decisión resultase de una prueba de azar. Cuando hizo la propuesta estaban caminando por un sendero lleno de piedritas. Se le ocurre entonces tomar dos piedritas, una blanca y otra negra, ponerlas en un bolso y ofrecer que la hija del comerciante extraiga una; si fuera de color negro, debería casarse con ella, y si fuera blanca quedaría liberado de la deuda. El trato fue aceptado, pero la hija del comerciante vio que el prestamista tomaba dos piedritas, ambas negras, y las metía rápidamente en el bolso. El desafío para ella era como, sin denunciar la maniobra del prestamista (al hacerlo se exponía a que este desistiera de la propuesta y reclamara por la deuda), eludir la trampa a la que iba a ser sometida. Si debiera aconsejar frente a esta situación ¿que estrategia propondría? Una historia alrededor del barómetro

En la introducción del libro Analog Circuit Design ( Butterworth-Heinemann,1991) Jim Williams cuenta la siguiente historia, que por brevedad resumimos de la siguiente manera: Un profesor formula en un examen de Física la siguiente pregunta: “Mostrar la forma de determinar la altura de un edificio con la ayuda de un barómetro”. La respuesta del alumno fue: “Subo a la terraza del edificio, ato el barómetro a un hilo y lo dejo caer desde la terraza hasta que toque el suelo. Luego midiendo la longitud del hilo obtengo la altura del edificio”. Obviamente esa no era la respuesta esperada, por lo que el profesor le dio seis minutos más para pensar la respuesta. Transcurridos cinco minutos, el profesor ve al alumno muy pensativo, se le acerca y le pregunta si no conoce la respuesta, a lo cual este contesta: “Tengo muchas respuestas, estoy pensando cual es la mejor”. Lo deja seguir, y antes de que transcurra el minuto el alumno se le acerca con la siguiente respuesta:”Me subo a la terraza del edificio desde donde dejo caer el barómetro y mido con un cronometro el tiempo que tarda en llegar al suelo. Luego con la formula s=.5at2, calculo la altura del edificio”. El profesor acepto la respuesta, aun cuando no era la que esperaba, y por curiosidad le pregunto que otras respuestas había pensado, a lo que el alumno contesta: “Bueno, sin necesidad de subirme a la terraza, lo que puedo hacer es aprovechar un día soleado, parar el barómetro sobre el suelo y comparar la sombra que arroja el edifico y la sombra del barómetro, y por simple proporción deducir la altura del edificio”. “Otra forma seria la siguiente: Este es un método mas bien simple y directo: Subo por la escalara y voy apoyando el barómetro sobre la pared y marcando su altura. Luego cuento la cantidad de marcas y sabiendo la longitud del barómetro, deduzco la altura del edificio. Pero puedo también recurrir a métodos más sofisticados: Ato el barómetro a una cuerda y usándolo como péndulo puedo determinar el valor de g al nivel de calle y sobre la terraza. En base a la diferencia entre ambos valores de g, puedo obtener la altura del edificio. Pero además de estas, existen muchas otras maneras de resolver el problema, por ejemplo......”

El relato toca tres puntos importantes:

• Ironiza sobre ciertos profesores que admiten solo como respuesta valida tan solo aquella que ellos esperan, normalmente ceñida y ajustada a lo que enseño en su curso

• Es una critica a la estrechez de miras, y una critica a aquellas soluciones que se limitan tan solo a los enfoques convencionales (asociación de la presión con la altura)

Page 93: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección

85

85

• Nos muestra como un problema tiene más de una solución; el desafío es determinar opciones y hallar la mejor. En este caso, si se debiera definir la mejor, ¿que criterio debería emplearse?

El Eureka de Arquímedes

R.M.Roberts en el libro Serendipity, Accidental Discoveries in Science (Wiley, 1989) relata la tan conocida anécdota sobre Arquímedes. Este, al descubrir casualmente mientras se estaba bañando la solución al problema que lo aquejaba, sale corriendo desnudo por las calles de Siracusa gritando:”Eureka, Eureka” (“la halle, la halle”). Lo que Arquímedes había hallado era la solución al problema que le había planteado el rey Heredoto. El rey le había encomendado a un joyero que le hiciera una corona de oro puro, y cuando la recibe, le entran dudas sobre si la corona contendría todo el oro que el le había dado. Para despejar sus dudas le encomienda a Arquímedes el problema de determinar si la corona era realmente de oro o una mezcla. Para ello Arquímedes disponía de dos datos: el volumen y el peso del oro. El rey había entregado un cubo regular de oro de medidas y peso conocidos. Estos eran los dos valores que debían ser satisfechos. El desafío que tenía por delante Arquímedes era calcular el volumen de la corona. Si conociese el volumen, conociendo además el peso, estaba en condiciones de saber si se trataba de oro o de una aleación. La actitud creativa

“No puede hacerse, es demasiado tarde para hacerse, no está dentro de lo planeado, es demasiado costoso, ya ha sido probado, no es práctico, es contrario a las reglas de diseño, no creo que funcione, ...”, estos son los obstáculos comunes que afronta el individuo que propone algo nuevo y diferente. Evaluar e inmediatamente criticar las ideas de otros, es un rasgo muy humano y común. Pocos pueden enfocar las ideas de otros con una mente abierta y una actitud constructiva.

En consecuencia, cuando enfocamos las fases de un proyecto de diseño relacionado con la proposición de conceptos alternativos, debemos suprimir intencionalmente nuestra actitud crítica destructiva y suplantarla por otra más objetiva y receptiva.

Los innovadores operan sobre premisas concretas:

• Nada se puede decir sin antes haberlo ensayado • Los obstáculos están para ser obviados • Los fracasos son una oportunidad para aprender • Los demás pueden pensar lo que quieran, los hechos son los que valen

Situarse en una posición creativa exitosa requiere:

1. Desarrollar una actitud creativa. Significa tener confianza en uno mismo; es decir, pensar que hay más de una solución, y que esta se puede encontrar.

2. Dar rienda suelta a la imaginación. Mirar el problema bajo distintos ángulos, explorando

las ambigüedades, sin amedrentarse por las equivocaciones, o el miedo al ridículo, tratando de observar al principio todo el cuadro, y no detenerse en los detalles

3. Ser persistente. No desanimarse. No buscar una respuesta rápida. El ejemplo mas

aleccionador es el de Edison. Encontrar el filamento adecuado para la lámpara incandescente le llevo a realizar mas de 6000 intentos. A el se debe la frase: Invención es 95% de transpiración y 5% de inspiración

4. Desarrollar y abrir la mente. Significa ser receptivo a las ideas o propuestas ajenas,

repensándolas si fuera necesario; no cegarse ni cerrarse en las propias ideas

Page 94: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección

86

86

5. Suspender juicios prematuros. No considerar de entrada que el proyecto sea imposible, sin estudiar todas sus facetas.

Un ejemplo de esto lo constituye la anécdota que Donald G. Fink protagonizo en los laboratorios de la RCA, empresa en la cual se desempeñaba como consultor. Los ingenieros del grupo de desarrollo le expusieron su idea de construir un tubo para reproducir imágenes de televisión en color basándose en un mosaico de pastillas luminiscentes dispuestas en forma de triángulos equiláteros. La idea era que cada triangulo estuviera integrado por tres diferentes pastillas, conformando una tríada, y dependiendo en cual hicieran impacto los electrones se emitiría uno de los tres colores básicos. Detrás de la pantalla proponían disponer una mascara con miles de agujeros, uno por cada tríada, a través de los cuales debían pasar los electrones emitidos por tres cañones diferentes; cada cañón se identificaba con un color básico, y los electrones que emitía debían incidir sobre la pastilla que correspondiera a su identificación de color. Esto requería que prácticamente el error de alineamiento entre cada tríada y la mascara fuese nulo, y además era necesario lograr una convergencia precisa de los electrones durante todo el barrido de la pantalla.

Luego de exponer la idea, los ingenieros requirieron si en la opinión del especialista este veía factible la idea. Sin dudarlo, opino que la realización era imposible. Los ingenieros, le explicaron que, habiéndose ya realizado fuertes inversiones, su intención era proseguir con el desarrollo a menos que, en la opinión del experto, este considerara el desarrollo como una imposibilidad técnica absoluta. La respuesta fue contundente: El especialista no le daba ninguna chance al proyecto. Después de la negativa del especialista, le invitaron a pasar a un laboratorio contiguo. Ahí Fink vio el tubo irrealizable, y no solo uno, sino varios ejemplares funcionando, mostrando una magnifica imagen en colores. Esto, que puede verse como una mala jugada, o motivada por segundas intenciones, admite sin embargo otras lecturas:

a. la primera, es un reconocimiento tremendo al grupo de desarrollo, el cual supero lo que Fink considero una barrera tecnológica infranqueable. Es decir, no habla mal de Fink, sino que habla bien del grupo de desarrollo.

b. la segunda, nunca apresurar una opinión sin conocer todos los detalles 6. Reconocer bien los problemas de contorno. Esto implica no seguir reglas que no existen

ni son parte manifiesta del problema. Es común fijar para el problema restricciones que el problema no tiene.

Como ejemplo citaremos la siguiente anécdota referida al disco compacto. Sony había trabajado por varios años en el tema y lo había abandonado por las dificultades mecánicas que había encontrado. En ese estado se ven sorprendidos por un pedido de Philips que propone una reunión para aunar juntos una especificación. Aunque el interés de Sony ya había desaparecido, por curiosidad acepta. En la primer reunión, cuando los ingenieros de Philips muestran el tamaño del disco que proponían, los ingenieros de Sony se ven sorprendidos: Su solución había fracasado porque se habían impuesto un tamaño de disco similar a los clásicos LP de vinilo, lo cual creaba grandes dificultades para la implementación mecánica. Es decir, se habían impuesto una limitación que el problema no tenia.

Como una digresión curiosa digamos que, para definir el tamaño del disco, el Director de Desarrollo de Philips requirió la opinión del celebre director de música von Karajan, recibiendo como respuesta: “ si no entra la Novena Sinfonía de Beethoven en una sola cara, no es lo suficientemente grande” . Esto determino el tamaño del CD, en contra de las 18 horas de capacidad en que pensaba originalmente la gente de Sony.

Page 95: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección

87

87

La Invención

Cuando no hay una solución estándar de la cual partir, y se debe hallar una, se trata de un problema de invención. La invención esta ligada a un nuevo descubrimiento científico o logro tecnológico que hace posible concebir algo nuevo, y que se encuentre una solución a problemas aun no resueltos, o que ni siquiera hayan sido explicitados como tales. Una invención es luego toda solución diferente, cuya disponibilidad y uso es de utilidad en la solución de algún problema. Inventar es resolver un problema de un modo distinto, utilizando creatividad e inteligencia, y esto implica:

• cierto control del medio ambiente físico • conocimiento de materiales, y de funcionamiento de otros dispositivos en los cuales

apoyarse, e ingenio para resolver las dificultades y contradicciones • y muchas veces, gran habilidad manual

Son inventos el fusible (invento de Edison ), el teléfono, la válvula electrónica, el

receptor superheterodino, el radar, el tomógrafo, el microprocesador ( patentado por INTEL), etc. Básicamente, las invenciones surgen: 1. Combinando conocimientos. Muchas invenciones resultan de combinar otras invenciones,

como ha sido el caso del tomógrafo computado, o bien reuniendo elementos conocidos. Veamos un ejemplo: La alta variación de la tensión suministrada por una pila alcalina puede ser solucionada mediante el uso de circuitos reguladores. Con estos es posible asegurar una tensión de salida constante ( Vo ) pese a las variaciones de la batería. La restricción es que para asegurar una alimentación adecuada debe ser

Vbateria > Vo

Bajo esta condición se desaprovecha una porción importante de la energía de la pila, figura 11; evitar esto es una buena oportunidad para la innovación.

La figura 12 es un esquema de solución en tal sentido. El regulador (B) funciona en modo lineal cuando se verifica ( 1 ). El transistor Q en este caso no conduce, y L y C actúan como filtro de entrada. Cuando la tensión de entrada cae por debajo de un valor en el que deja de ser valida la expresión (1), entonces entra a funcionar el convertidor (A) que levanta la tensión de la batería al valor requerido por el regulador lineal, extendiendo así la vida de la batería. Alrededor de esta idea se han propuesto y desarrollado diversos circuitos integrados.

Este esquema, si bien es innovador, resulta todavía ineficiente, dado que con el empleo de un regulador lineal se pierde gran parte de la energía, figura 13. Es decir, el

(1)

Fig.11 Fig.12

Fig.13 Fig.14

Page 96: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección

88

88

ideal seria una combinación de un regulador por conmutación descendente en la primer parte, y pasar luego a un tipo ascendente cuando la tensión de entrada es insuficiente. Salvo las pérdidas por rendimiento, empleando un circuito regulador por conmutación, figura 14, se consigue que la potencia entregada por la pila se mantenga constante.

2. Necesidad y ahorro de mano de obra. Estos han sido factores que estimularon siempre la

inventiva con el fin de evitar regulaciones extremas, el poder sindical, la dependencia, o las limitaciones propias de la capacidad humana.

Un ejemplo de este tipo lo constituye la primera central telefónica. Su inventor, Strowger, tenía una empresa funeraria y estaba molesto porque su competidor se enteraba primero de los fallecimientos debido a que la esposa de este trabajaba en la central telefónica, la que hasta ese momento era manual; esto le daba la ventaja de ser la primera en enterarse de cualquier acontecimiento. Strowger pensó que la única manera de evitar la ventaja del competidor era logrando un enlace telefónico sin intervención humana.

3. Solución directa. Esta es la forma usual de resolución de problemas, en la cual se

aprovecha el conocimiento y la tecnología en forma directa para dar solución a un problema concreto.

4. Adaptación de un viejo principio a un viejo problema para generar una nueva solución.

Limitaciones tecnológicas hacen que la solución a ciertos problemas no aproveche inicialmente todas las posibilidades de una nueva concepción o idea. Este es el caso del receptor superheterodino. El esquema tiende a resolver de un modo muy elegante los problemas del receptor de sintonía directa (sensibilidad y selectividad pareja cualquiera sea el canal que se quiera recibir). La figura 15 esquematiza el principio de base del receptor superheterodino.

Esta propuesta no esta exenta de problemas, llamadas contradicciones en el

método TRIZ. Uno es la aparición de la frecuencia imagen. Es decir, el receptor no puede diferenciar la frecuencia del canal deseado, de frecuencia fc, de otra señal de frecuencia

FIfcfi .2+=

pues en ambos casos la señal resultante de la mezcla da lugar al mismo valor de FI. Inicialmente la forma de resolver el problema fue disponiendo un filtro que

precediera a la etapa mezcladora, para eliminar la frecuencia fi. Como este filtro debe estar sintonizado a la frecuencia a recibir, debe ser resintonizado cada vez que se cambia de emisora. Para que esto sea automático, se hace variar la frecuencia del circuito selectivo y la del oscilador local mediante un mismo mando, valiéndose para ello de un capacitor en tandem. Esto funciona bien si hay un acompañamiento perfecto entre la frecuencia de resonancia del circuito selectivo y la frecuencia de la emisora de interés, lo cual es imposible de lograr por diferentes razones. La diferencia entre ambos valores se conoce como error de arrastre, y es un viejo problema no bien resuelto: Para su solución se requerían elementos adicionales ( capacitores de ajuste denominados padder y trimmer ), y un proceso de calibración posterior .

Una manera de evitar esto seria lograr que el filtro de entrada rechazara la frecuencia imagen sin que sea necesaria su sintonía. Esto es posible si en vez de operar con una frecuencia intermedia FI que este por debajo de la banda a recibir, se opera con una frecuencia intermedia que esta por encima de la banda a recibir, figura 16.

Fig.15 ∼

Demodulador

Oscilador Localfo=fc+FI

fc

Mezclador

Filtro FiltroAmplificador

fo-fcfo+fc FI

IFIfo-fc

(2)

Page 97: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección

89

89

En tal caso, cualquiera sea el canal es siempre FI> fc, y además como el valor de

la frecuencia imagen esta dada por fc+2*FI, entonces esta se elimina disponiendo a la entrada del receptor un filtro pasabajos fijo en vez de un filtro sintonizable. En un receptor de onda media, por ejemplo, bastaría que la FI sea de 10.7MHz (definida en este valor para usar filtros estándar); en receptores de onda corta (3 a 30 MHz ) la FI puede ubicarse en valores mayores a los 100 MHz, tal como muestra la figura 16.

5. Aplicación de un nuevo principio a un viejo problema. La solución al rechazo de

frecuencia imagen consistente en trasladar la frecuencia intermedia a un valor por encima de la banda en la que se opera encuentra sus limitaciones tecnológicas cuando se quiere recepcionar frecuencias muy altas. Es decir, la solución anterior es aplicable en la banda de HF, pero no lo es en la banda de VHF o superiores. Por caso, en un receptor de radiodifusión de FM (88 a 108 MHz) ya no resultaría aplicable. Surge entonces una nueva posibilidad: Recurrir a filtrado por transformada de Hilbert, figura 17. La transformación de Hilbert mantiene la amplitud y produce un giro de 90 grados en la señal.

En este esquema, la señal deseada e imagen, de pulsación wd y wi se mezclan

con componentes en cuadratura de un oscilador local de pulsación wo y se hace un posterior filtrado a la frecuencia de FI, verificándose para la señal deseada que

FIodeseada ωωω −= y para la indeseada

FIoimagen ωωω += Tal como indica la figura 17, la rama I desfasa la señal de entrada en 90 grados,

mediante un transformador de Hilbert. Representando las señales en su forma compleja, la figura 17 muestra como la señal imagen es cancelada. Por el contrario, la señal deseada proveniente de las dos ramas, I y Q, se ve reforzada, tal como muestra la figura 18.

Fig.16

Fig.17

(3)

(4)

ef+

π/2

Transformador

de

Hilbert

ejwit

ej(wi-wo)t

ejwot

ej [ (wi-wo)t-π /2 ]

A(t).ejπ /2=ej (wi-wo)tejπ /2

A(t).e-jπ /2=ej (wi-wo)te-jπ /2

A(t)

A(t).ej π / 2

A(t).e-j π / 2

Fig.18

ef+

π/2

Transformador

de

Hilbert

ejwdt

ej(wo-wd)t

ejwot

ej [ (wo-wd)t+ π /2 ]

A(t).ejπ /2=ej (wo-wd)tejπ /2

A(t)

A(t).ej π / 2

A(t).ejπ /2=ej (wo-wd)tejπ /2

A(t).ej π / 2

FI= 100 MHz MHz

FiltroPasabajos

2 30Rango devariacion deloscilador local

Banda defrecuenciasimagen

Banda deoperacion

102 132 232202 MHz

Page 98: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección

90

90

Obviamente, la supresión de imagen dependerá del apareamiento entre los dos caminos, y de que las señales del oscilador local que excitan al mezclador estén exactamente a 90º, y que el transformador de Hilbert provea un desfasaje exacto de 90º. Estas condiciones se verifican en gran medida si toda la implementación se hace dentro de un mismo circuito integrado, por lo que es posible lograr rechazos de imagen del orden de los 30 a 50 dB, obviando así el empleo de un filtro sintonizable para el rechazo de la señal imagen.

6. Aplicación de un nuevo concepto en un nuevo uso. La planilla de cálculo es un buen

ejemplo de ello; siendo desconocida antes de la computadora personal, se transformo pronto en su principal aplicación.

7. Invirtiendo los conceptos. Muchas soluciones resultan por aplicación de un concepto, lo

cual lleva a pensar que aplicando un concepto opuesto no seria posible hallar una solución.

Veamos un caso: El concepto de receptor superheterodino surge con la idea de trasladar la ganancia y la selectividad a una frecuencia fija, y de ese modo lograr que ambas características sean independientes de la frecuencia del canal a recibir.

En la década de los 1950, con la introducción de las comunicaciones de banda lateral única (BLU) en la banda de HF, este esquema de solución tropezaba con el problema de la inestabilidad del oscilador local. En esa época, muy lejos todavía de los VCO y lazos enganchados en fase actuales, se debía recurrir a circuitos sintonizados del tipo LC para implementar el oscilador local, figura 19, y la estabilidad de frecuencia que así resultaba se situaba en el orden de 10-4 a 10-5; es decir, en el mejor de los casos resultaba una variación en la frecuencia dada por

510 −=∆ff

dando origen a un corrimiento que era función de la frecuencia del canal. Con un valor de frecuencia de canal de 30 MHz esto significaba un corrimiento de

frecuencia del orden de 300 Hz, que supera al valor de 50Hz requerido para obtener adecuada inteligibilidad. Esto volvía imposible la implementación de receptores de comunicaciones de sintonía corrida.

Collins, empresa líder en la nueva tecnología, propuso una solución ingeniosa en la cual se invertían los conceptos. En vez de operar con una frecuencia intermedia fija y el oscilador local variable, desarrollo un nuevo concepto en el que la frecuencia del oscilador local era fija, implementándose con osciladores a cristal ( un cristal para cubrir una banda de 1 MHz), y una frecuencia intermedia variable, figura 20.

De este modo, como la frecuencia intermedia se situaba entre 2 y 3 MHz, disponiendo un nuevo oscilador local con una variación restringida entre 2.5 y 3.5MHz, la inestabilidad de este último se reducía en un orden de veces, haciendo posible la recepción de señales de banda lateral única en la banda de HF.

Fig.19 Fig.20

FI=500KHzFI 2 a 3 MHz

fOLfOL

fc=3 a 30 MHz

FI=500KHz

fO

fc=3 a 30 MHz

Page 99: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección

91

91

8. Serendipidad. Es la invención por accidente, o casualidad. Realmente no existe tal cosa. El hallazgo casual ocurre cuando en la investigación de ciertos problemas aparece la llave que da solución a algún problema pendiente, o se avizora la posibilidad de nuevas aplicaciones. Pero, para que la solución se reconozca, el problema debe existir entre los problemas no resueltos o mal resueltos.

El mejor ejemplo en electrónica es el transistor, un hallazgo casual de la Bell Telephone Laboratories. En 1945 la Bell formo en sus laboratorios un grupo para trabajar en el desarrollo de amplificadores de estado sólido. Su intención era construir un transistor de efecto de campo basándose en una teoría sobre semiconductores que había desarrollado A.H.Wilson en 1931. Los varios dispositivos construidos en base a esa teoría, nunca llegaron a funcionar. Tratando de explicar el porque descubrieron accidentalmente el transistor de punta de contacto en 1947, y a partir de este descubrimiento posteriormente desarrollaron el transistor de juntura en 1951. Finalmente en 1952 lograron el FET que era la meta inicial del grupo, y demostraron además que la teoría de Wilson, con la cual se había iniciado el desarrollo, no era valida.

La Innovación

El termino innovación se vincula con el empleo de nuevas ideas y conocimientos tecnológicos y de comercialización a productos existentes, con la finalidad de bajar costos y mejorar o agregar atributos que antes eran desconocidos, al menos en el mercado en el que se va a comercializar. El innovador interactúa con todo un contexto formado por competidores, proveedores, clientes, y regulaciones para poner en práctica un invento, de un modo que puede ser:

• incremental, de consecuencia de sucesivos refinamientos en el producto o el proceso • radical, cuando se produce una discontinuidad; implica un cambio en la concepción o

en la tecnología. Marca el final del ciclo de vida de un producto y el comienzo de otro que se apoya en nuevos conceptos de solución. La prestación parte de un piso, que bordea el techo de la generación anterior, y evoluciona hasta alcanzar un techo impuesto por limitaciones tecnológicas o físicas en las que se apoya, adoptando la clásica forma de S

El producto innovador puede que no sea competitivo en un principio y que se encuentre por debajo de la línea de prestación alcanzada por el producto antecesor, pero por su potencialidad esto cambia en el futuro. Este es el gran desafío: Que con el paso del tiempo logre alcanzar la competitividad suficiente y desplazar a la generación anterior. También puede ocurrir que sea tan innovador que ni siquiera tenga mercado y haya que crearlo, o bien que el mercado no este en capacidad de aprovechar todas sus posibilidades en su inicio.

Aunque nuestro interés esta en la innovación tecnológica, la innovación puede darse en cualquiera de las etapas del ciclo de vida del producto: en su concepción, en el desarrollo de la manufactura o en la comercialización. Frente a la innovación las empresas se posicionan de dos modos:

• Proactivo: En este caso la empresa opera sobre una base planeada, con recursos asignados,

preparándose para el cambio o el logro de objetivos futuros. Tratan de ser los primeros en lanzar nuevos productos en el mercado, cuidando de que sean difíciles de imitar o mejorar, y finalmente si la competencia entra al mercado, se bloquea al competidor con una segunda y mejor versión.

• Reactivo: Espera a que aparezca un nuevo producto en el mercado, imitándolo

rápidamente si fuera exitoso, o desarrollando un segundo producto mejor. Esta estrategia se basa en que difícilmente los nuevos productos aprovechen plenamente toda su capacidad, y respondan exactamente a las necesidades de los usuarios.

Page 100: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección

92

92

Diseño por evolución El mayor dilema que enfrentan las empresas que cuentan con un producto

estrella, es como posicionarse frente la innovación. Sus posibles opciones son:

• Tratar de ampliar el mercado, mejorando la cadena de comercialización • Innovar, buscando ampliar el mercado mediante el agregado de prestaciones • Explotar el mercado que domina introduciendo nuevos productos

La primer opción implica desconsiderar totalmente la I&D. La segunda opción produce

cierta aversión debido a que el nuevo producto va a competir y sacarle parte del mercado al anterior, salvo que, aunque competitivo, por sus características este orientado a un segmento no cubierto por el anterior. De todos modos, aun compitiendo, esto siempre es mejor que la existencia de un real competidor. Este concepto, que apunta al diseño por evolución, fue introducido por la empresa DEC (Digital Equipment Corporation) al lanzar la familia PDP-11. Su idea era definir una serie de productos que pudieran atender distintas necesidades, con una arquitectura común simple y una concepción modular.

La teoría del diseño por evolución fue planteada en los siguientes términos: • Los avances tecnológicos deben ser trasladados en uno de los siguientes estilos de diseño:

• proveyendo funcionalidad constante a mínimo precio, el cual debería disminuir con el tiempo, figura 21a

• manteniendo los costos constantes e incrementar la funcionalidad, figura 21b • aumentando los costos e incrementando la prestación, figura 21c. Si bien posible, esta

variante fue descartada por los diseñadores de DEC, pues apreciaron que tenía menor potencialidad económica que las dos primeras.

• concibiendo una familia en la cual cada producto queda enmarcado en base a sus dos características, costo y prestación, figura 22.

• introduciendo mejoras tecnológicas continuas, creando cada dos años dos nuevos miembros de la familia por cada uno anterior: uno equivalente en precio, el otro equivalente en funcionalidad, de modo que al cabo de algunos años se cuente con un grupo desparramado dentro de un amplio espectro precio-prestación.

Actualmente los tres conceptos, especialmente el tercero y el primero, han sido y son

explotados con éxito por Intel para su gama de microprocesadores. El concepto evolutivo toma nuevas formas al agregar la posibilidad de actualizar el software, o personalizarlo, incorporando el mismo en una flash ROM. Por este medio se consigue que los dispositivos vean alargado su ciclo de vida.

La tercera opción, basada en aprovechar el conocimiento del mercado, aunque es una ventaja importante para introducir nuevos proyectos, su mayor contra es la resistencia a entrar en áreas o productos que están fuera de la especialización, o del núcleo de sus negocios.

Fig.21

Fig.22

Page 101: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección

93

93

La investigación y el desarrollo dentro de las empresas

La inventiva y la innovación tuvieron carácter personal por mucho tiempo. Edison fue el primero que la concibió como una actividad especifica, y por ello puede considerarse el inventor de la fábrica de inventos. Actualmente son muchas las empresas dedicadas exclusivamente a la invención y desarrollo de productos bajo demanda, con capacidad de trabajo en una gran variedad de industrias y tecnologías. Pero, por lo general, debido a su carácter estratégico, la mayoría de las empresas tienen sus propios departamentos de investigación y desarrollo, en los que reinvierten un gran porcentaje de sus beneficios. De los miles de ideas que manejan, menos de la mitad es considerada como valiosa para pasar a la etapa siguiente. En otra instancia, algunas pocas pasan a la etapa de desarrollo, y solo muy pocas cumplen con las expectativas y llegan al mercado, donde algunos productos serán aceptados y otros fracasaran. Este proceso puede llevar muchos años de inversión intensiva.

Este concepto de descargar sobre los departamentos de investigación y desarrollo la responsabilidad de la innovación está cambiando por otro en el que las compañías, como un todo, se transforman en verdaderas máquinas de innovación, apoyándose en terceros como proveedores de tecnología si ello fuera necesario. Esto, en muchos casos, se debe a que dentro de las grandes corporaciones la innovación encuentra a veces límites insoslayables.

Cuestiones tales como: ¿por qué Canon entrevió las posibilidades de la copiadoras personales, y no Xerox ? ¿Como es que una pequeña empresa como Nokia se queda con la mayor porción de la torta de los teléfonos celulares, en detrimento de empresas fuertes en el sector telefónico como Ericsson, Siemens, o Philips? ¿Por qué RCA, líder en la fabricación de válvulas electrónicas, no sobrevivió a la generación de los transistores? Una respuesta posible es que a las empresas tradicionales les resulta difícil innovar. Para lograr cambios, es necesario estar repensando permanentemente los productos, buscando innovar lo suficiente como para acceder a un mercado masivo, y teniendo claro que una solución basada exclusivamente en reducción de los costos de componentes y procesos no cambia sustancialmente el mercado. Esta situación se dio en la computación, en las copiadoras, en los video reproductores, etc.

El mayor problema del innovador es que al crear algo que no existe, no hay posibilidad de evaluar el mercado, y lo que es peor no se puede indagar sobre la clase de producto que realmente la gente quiere. Frente a una misma necesidad, por lo general hay siempre distintas propuestas. El mercado decide cual prospera. Esto se reflejo en la batalla entre IBM y Microsoft por imponer un sistema operativo para la PC; entre Masushita y Sony por imponer el sistema de video, entre Sony y Philips por el audio digital, etc. En la innovación se tienen dos posibles caminos:

• definir el producto pensando en el usuario, pero con la idea de que será necesario

generar el mercado y educar en el uso de ese producto. • indagar lo que el publico quiere, y diseñar siguiendo esas pautas

Pero, cuando el cliente es disperso, y con desconocimiento de las posibilidades, las

chances de errar son grandes. Sobretodo, porque los deseos son cambiantes. Un competidor más imaginativo hace valer nuevas posibilidades y puede cambiar los deseos de los clientes.

El gran problema para la innovación lo constituye la gran demanda de recursos, y la necesidad de disponer de una masa critica suficiente que le asegure éxito al desarrollo. La forma de resolver esta limitación es trabajando con políticas colaborativas entre grupos empresarios. Son pocas las empresas que pueden afrontar por si solas ciertos desarrollos, y esto solo es posible si se cuenta con una gran porción del mercado. La realidad actual es que para muchos productos solo la competencia global provee la escala necesaria.

Aunque por necesidad todas las empresas realizan esfuerzos de innovación, sus logros no necesariamente son volcados al mercado en forma inmediata. Solo las empresas que se desenvuelven en mercados muy competitivos tratan de hacerlo tan pronto como pueden, para obtener el máximo beneficio de la innovación mientras el mercado este libre de competidores.

Page 102: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección

94

94

Las empresas dominantes por lo general actúan solo cuando las empresas menores los obligan a ello, y en ese caso lo hacen rápido para no perder su posición en el mercado.

La firma que se desenvuelve bajo competencia, con una porción del mercado total k.Q1, encuentra su gran oportunidad en la innovación debido a que al tener precios apenas por encima de los costos, si el proceso innovador lleva a una reducción de costos, pasando de C1 a C2, esto le permite, mientras tenga el monopolio del cambio tecnológico, maximizar su beneficio, bien sea:

manteniendo el precio de venta P1 y su cuota de mercado k.Q1, con lo cual no cambia la oferta pero incrementa su beneficio

ampliando su participación en el mercado, reduciendo el precio de venta, buscando

desplazar a sus competidores Patentes

La patente es un contrato entre el estado y un individuo, mediante el cual el estado le otorga el derecho de disponer en forma exclusiva y libremente de una determinada invención por un tiempo definido ( 10 a 20 años ). Además de un reconocimiento a la creatividad de las personas o empresas, el estado busca con ello generar incentivos para estimular la invención, presuponiendo que a través de la invención se logra una mejor calidad de vida para las personas. Como contrapartida, el propietario de la patente esta obligado a hacer publica toda la información de su invención, lo cual enriquece el conocimiento técnico, y ayuda a la creatividad y capacidad de innovación de otros. Es decir, para que sea acordada la patente, el inventor esta obligado a realizar una solicitud en la cual debe hacer una descripción técnica del invento. La solicitud es un documento público, debiendo tener suficiente detalle como para que un especialista en el área pueda comprender su funcionamiento. La descripción debe ser acompañada por esquemas, planos, o diagramas, que hagan posible reproducir el invento.

La solicitud de Patente de Invención se hace ante la Oficina de Patentes del país en donde se solicita protección. Esto implica que la protección que se otorga sobre un invento es territorial; es decir, una patente obtenida en un dado país, sólo da protección en ese país.

Aunque anualmente se acuerdan innumerables patentes, muchas quedaran solo como archivos en alguna oficina de patentes. Muchos estiman en menos del 10% la cantidad de patentes que tienen alguna posibilidad de desarrollo económico. En parte, porque muchas empresas se rigen por el principio: “Debe protegerse todo lo que pueda ser protegido”. Es decir, las patentes no son exclusivas de productos revolucionarios; en la mayoría de los casos corresponden a procedimientos técnicos o son simples mejoras de un producto.

Los principios en que se basan los sistemas de patentamiento fueron establecidos en la Convención de Paris en 1883. El denominado Convenio de París regula la protección de la Propiedad Industrial. Independientemente, cada país emite leyes y regulaciones para la protección de los derechos de la propiedad intelectual. Dentro de esta se incluyen, además de las invenciones, las creaciones literarias o artísticas, los símbolos y nombres, las imágenes y sonidos, y los diseños gráficos. Hay dos categorías:

Propiedad industrial, que incluye los inventos, marcas, y los diseños y modelos

industriales Derechos de autoría, que incluye trabajos literarios o artísticos, películas, obras

musicales, diseños arquitecturales, etc. Se considera invención a todo producto o proceso que implica una nueva forma de

hacer algo, o que representa una nueva solución técnica a un dado problema. Para que sea acordada una patente se requiere que la invención:

sea pasible de uso practico, o sea que despierte un interés comercial

Page 103: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección

95

95

sea novedosa, con características nuevas, previamente desconocidas, en el campo técnico de su aplicación

represente un salto inventivo, es decir que no pueda ser deducida por cualquier persona con conocimiento medio en el área de aplicación

sea patentable bajo las leyes del país en los que se solicita. En la mayoría de los países no son patentables por ejemplo teorías científicas, métodos matemáticos, etc. Una marca es un signo distintivo que identifica ciertos productos o servicios

producidos o provistos por las empresas. Las marcas pueden ser una, o una combinación, de palabras, letras, y números. Pueden ser también dibujos, símbolos, formas tridimensionales, formas de envase o empaquetadura, señales audibles, colores, etc., y todo lo que pueda servir como característica distintiva de un producto. Con la indicación Marca Registrada (Trademark) el propietario de la misma hace saber que es de uso exclusivo, salvo que medie autorización expresa, y que dicha marca esta sujeta a protección legal. Aunque el periodo de protección es limitado, el mismo puede ser renovado indefinidamente.

El diseño industrial define los aspectos ornamentales o estéticos de un producto, sin contemplar característica técnica alguna del mismo Cuando se contemplan las características tridimensionales de un producto, tanto de forma como de superficie, se habla de un modelo industrial, y se reserva el termino de diseño industrial tan solo a las características bidimensionales, tales como texturas o tramas, líneas o colores, es decir, a todo diseño grafico.

Se usa el término legal Derechos Reservados o Copyright, para señalizar que una obra literaria, artística o científica, expresada en cualquier medio, esta protegida por derechos de autoría. Estos derechos se extienden solo a las expresiones, no a las ideas, procedimientos, métodos de operación o conceptos matemáticos o técnicos como tales.

En las décadas de 1970 y 1980 hubo grandes debates sobre si la protección de software debería estar cubierta por una patente o un derecho de autor, o si debería generarse un nuevo sistema de protección. Finalmente se acepto que los programas deberían estar protegidos por el derecho de autor, mientras que cualquier aparato que use el software debería ser protegido por una patente.

Las contravenciones a los derechos de propiedad intelectual toman diversas formas:

plagio, imitación de un producto con pequeñas o nulas modificaciones falsificación, cuando se pretende hacer creer que se trata de un producto

original piratería, en la cual un producto de baja calidad, copia un producto

reconocido, aprovechando la imagen consolidada de otro producto Para hacer valer sus derechos la persona física o jurídica ( las empresas ) debe

presentar una solicitud de patente en el organismo nacional competente. Por ejemplo, en Francia, al igual que en Argentina, es el INPI ( Institut National de la Propriete Industrielle, o Instituto Nacional de la Propiedad Industrial), del cual dependen la Oficina de Marcas, la Oficina de Modelos y Diseños Industriales, y la Administración de Patentes.

Una patente protege solo las reivindicaciones solicitadas, en las cuales se describe aquello que es lo novedoso del producto, indicando las características técnicas genuinas de la invención o del modelo, o sea aquellas que no existían anteriormente, conformando un grupo de peticiones ordenadas y enlazadas que definen la materia que será objeto de protección, y serán tantas como sea necesario para definir y delimitar correctamente la invención. Se distingue entre reivindicaciones independientes o principales y las dependientes o secundarias. El pliego de reclamos se compone al menos de una reivindicación principal, en la cual esta definida la invención, y de reivindicaciones secundarias ligadas a ella, las cuales aportan detalles o características adicionales del invento. Estas, a pesar de ser inéditas, se consideran auxiliares o complementarias de la reivindicación principal.

Page 104: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección

96

96

Principales

Secundarias

Técnicas creativas

Para llevar a cabo el desarrollo de un proyecto hay disponibles una diversidad de herramientas, la mayoría de las cuales solo indican que cuestiones deben ser consideradas, pero no dicen nada de como hacerlo. El camino hacia la solución pasa primero por generar ideas, y luego ver como hacer estas posibles, tratando de que las ideas y su implementación no se vean solo limitadas al área de conocimiento que domina el grupo de desarrollo. Mayormente, la creatividad se apoya mas en el pensamiento estructurado, que en otras vías no convencionales, conocidas como formas de pensamiento lateral. El pensamiento estructurado reposa en el razonamiento y la lógica como la vía hacia la creatividad, y lleva a soluciones basadas en soluciones previamente desarrolladas para problemas similares.

La esencia del pensamiento lateral es la reestructuración de conceptos que ya existen en la mente. El pensamiento lateral es algo así como un conjunto de técnicas por las cuales, a partir de burlar y desorganizar dichas pautas, se trata de encontrar nuevos caminos de solución, que sean a la vez originales y brillantes. De algún modo es pensar lo opuesto, salirse de los esquemas convencionales, contraponer conceptos.

El pensamiento estructurado y el lateral son complementarios. Básicamente, el pensamiento disciplinado es efectivo en la búsqueda de mejoras, aprovechando las soluciones existentes, mientras que el pensamiento lateral lo es en la generación de nuevos conceptos e ideas. Por ello, la mayoría de las técnicas creativas recurren a ambas formas de pensamiento. Técnicas individuales Por muchos años la creatividad se considero una tarea eminentemente individual, propia de personas con mentes geniales. La realidad, sin embargo, muestra que la mayoría de las invenciones e innovaciones surgen después de un largo esfuerzo de análisis y búsqueda. Es decir, es importante la creatividad individual, propia de personas curiosas, con sólidos conocimientos en el área, de mentes divergentes y cuestionadoras de las soluciones convencionales, y muy observadoras de las tendencias, pero el éxito debe verse más como un problema de dedicación y pequeños logros que de golpes de iluminación. Claro que este esfuerzo de análisis, previo a toda nueva síntesis creadora, se vera reducido valiéndose de apropiadas técnicas, algunas de las cuales se describen seguidamente. 1. Métodos analíticos. El análisis de diseño empleando modelos matemáticos conduce con frecuencia al descubrimiento de mejores conceptos de diseño. Este análisis revelará conocimientos fundamentales acerca de su comportamiento, y mostrara omisiones que conducirán a nuevas ideas para lograr nuevas mejoras. La idea es vincular las características del producto con los elementos que la determinan.; es decir, hallar relaciones causa-efecto. Una herramienta para ello es el diagrama espina de pescado, figura 23. En esta, se reconocen y diferencian las características principales de las secundarias y aún de otras más subalternas, y esto conduce a una orientación de prioridades en la búsqueda de soluciones.

El análisis de las fallas y deficiencias de los productos, usando herramientas tales como diseño de experimentos (DOE), análisis de modos de falla (FMEA), análisis de árbol de fallas (FTA), y análisis de competitividad son también una fuente motivadora e inspiradora. Fig.23 Fig.24

C a ra c te r ís t ic a sA B C D

V a lo r8 0 %

Page 105: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección

97

97

Para estos análisis son de ayuda los gráficos de Pareto. Con estos, se busca concentrar la atención en los factores dominantes del problema, ateniéndose a la regla: “El 80 % depende del 20 %”. Se trata de darle mayor importancia y priorizar la solución de aquellos aspectos que son decisivos y no detenerse en otros que son secundarios o de fácil solución, figura 24.

También son útiles los diagramas de bloque, asociación de módulos y bloques funcionales dispuestos de modo de dar solución al problema. De este modo, la solución de un problema complejo queda reducida a la solución de pequeños problemas. 2. Monitoreo. La idea es ver y observar antecedentes, tratando de encontrar pistas en el pasado que permitan entrever posibles soluciones, viendo las ideas que no pudiendo ser materializadas en su momento, la tecnología hace que sea posible su actual implementación.

También los estudios y evaluaciones de los productos existente en el mercado, a través de análisis de competitividad (benchmarking), pueden resultar una fuente importante y a la vez motivadora e inspiradora. También lo sera el estudio de las patentes sobresalientes en el tema, al igual que la revisión de las publicaciones técnicas y científicas.

El gran problema hoy en día es que son tantas las fuentes de información disponibles: bibliotecas, organizaciones gubernamentales, universidades, empresas, laboratorios, publicaciones periódicas, redes de información, etc., que el gran desafío es discriminar entre la información verdaderamente útil de la totalmente desechable en el menor tiempo posible. 3. Analogía. Una interesante fuente de ideas de diseño se basa en el estudio del comportamiento de los animales. Con frecuencia se encuentra que muchos descubrimientos técnicos tienen su correlato natural en el comportamiento de los animales. Por ello, el conocimiento de los medios naturales relacionados con el comportamiento de una función puede ayudar a encontrar ideas de concepto para el diseño de nuevos productos.

La necesidad de aprender y comprender las soluciones que brinda la naturaleza ha conducido a nuevas áreas de estudio como la biotecnología, donde se aplica el conocimiento de sistemas vivientes a la solución de muchos problemas de ingeniería. 4. Análisis morfológico. La mayoría de los productos son diseñados en forma modular. Cada uno de estos módulos admite múltiples formas de solución. Por combinación de estos módulos es posible obtener múltiples posibilidades de implementación. Cada una de ellas es una opción que debe ser evaluada. Para ello, el análisis morfológico recurre a los cinco pasos siguientes:

1. formular explícitamente el problema 2. identificar para los parámetros a satisfacer distintas formas de solución 3. listar todas las posibles combinaciones 4. examinar la factibilidad de todas las alternativas 5. seleccionar la mejor alternativa

5. Método de avance-retroceso. En la búsqueda de soluciones normalmente se parte de condiciones impuestas en pasos previos que limitan las posibles soluciones. Si se considerara el problema bajo una perspectiva más amplia, replanteando el punto de partida, y siguiendo otra dirección, las limitaciones seguramente serán distintas y con ello se posibilitara entrever otras soluciones.

El método funciona de la siguiente manera: Cuando se ve la inviabilidad de un camino, el método propone retroceder un paso buscando desde una mayor perspectiva otros caminos de solución. El método propone retroceder en pasos sucesivos hasta encontrar una vía de solución apropiada, de ahí la denominación de avance-retroceso. 6. Provocación. Es una forma de pensamiento lateral; busca romper pautas establecidas en la solución de los problemas planteando propuestas que se contraponen con las soluciones establecidas. En base a propuestas ilógicas, que a simple vista parecen estúpidas o alocadas se pretende descolocar la mente de modo de establecer un nuevo punto de arranque en el proceso

Page 106: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección

98

98

creativo. Hecha la provocación, vinculada al problema cuya solución se busca, se trata de analizar la misma bajo diferentes ángulos:

• las consecuencias que tendría • que beneficios aportaría • que principios y propiedades deberían darse para que funcione • en que casos sería una buena solución, etc.

de modo de ir, por evolución sucesiva, configurando una solución distinta. 7. Listado de verificaciones. El listado de verificaciones sirve de ayuda para pensar en los posibles cambios que puede sufrir un producto existente, pero pensados con la idea de que los mismos den origen a un nuevo producto. Las ideas que surjan pueden ser puntos de partida en un proceso de pensamiento lateral. En el listado se deben incluir posibilidades referidas a:

• S – Sustitución ( materiales, componentes, etc ) • C – Combinación ( combinación con otros equipos o dispositivos ) • A – Adaptación ( alteración, cambio funcional ) • M – Modificación (cambio de forma, cambio de tecnología ) • R – Reducción • E – Eliminación ( sacar componentes, simplificar ) • I – Inversión ( dar vuelta, contraponer )

Técnicas grupales

La explosión del conocimiento y la tecnología actual hacen muy difícil que una persona pueda conocer y manejar todos los datos vinculados con un problema. Por ello, los métodos grupales tienen más chances de éxito para definir posibles caminos de solución, pues:

• La participación de mas gente aporta una mayor capacidad de conocimiento, dado que posibilita la presencia de expertos en cada área

• Se tiene la posibilidad de interactuar, y de aprender unos de otros • Aumentan las chances de que de existir una solución óptima, esta sea encontrada • Una solución por consenso tiene mas chances de éxito, al sentirse todos involucrados

Seguidamente se describirán algunas de las técnicas grupales más usuales. 1. Torbellino de ideas. Entre la gran variedad de técnicas grupales, la más difundida es la denominada brainstorming, torbellino de ideas o lluvia de ideas. Es quizás el método de grupo más famoso y conocido para estimular ideas. En este proceso se trata de sugerir tantas soluciones como sea posible, sin consideración inmediata de su valor o de si estas satisfacen todos los requerimientos del problema.

En una sesión de torbellino de ideas, el líder, que dirige el grupo, demanda soluciones a un problema determinado, ajustando el desarrollo de la sesión a las siguientes reglas:

1. Provocar un clima de libre asociación de ideas 2. Promover variaciones sobre una misma idea, de modo que las ideas que genere un

participante puedan ser tomadas por otros, cambiando aspectos de la misma 3. Respetar ideas repetidas; la última versión puede generar nuevas asociaciones 4. Evitar gestos de aprobación o desaprobación. La critica no esta permitida. Ninguna

idea debe ser rechazada. 5. Limitar la duración de la sesión ( 20 a 30 minutos máximo )

El método puede también desarrollarse en forma individual, con la ventaja de que no

hay que preocuparse por la opinión que otros puedan tener sobre las ideas que surjan en la mente. La desventaja en este caso es que la falta de sinergia de otros participantes le resta efectividad.

Page 107: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección

99

99

2. Proceso Ringii. El método Ringii, desarrollado en Japón, es un proceso grupal pero con mínima interacción cara-a-cara. En este método, el proyectista emite una idea que se somete a otros en un papel. Estos pueden modificar o cambiar la idea. Con todas las propuestas el proyectista vuelve a reformular la idea, que puede o no volver a someter a juicio por parte de otros. El método puede o no tener carácter anónimo. Finalmente llegara a una línea de solución sobre la cual el proyectista podrá comenzar a trabajar. 3. Técnica de Delfos. Muy similar a la anterior es la técnica de Delfos. A un grupo de entendidos, no vinculados entre si, se les plantea el problema por nota. En una hoja, con carácter anónimo, los especialistas deben detallar una propuesta de solución. Con esto se genera una cierta cantidad de ideas, y analizando las mismas, buscando grados de coincidencia, se seleccionan las fundamentales. Las ideas seleccionadas se hacen recircular en el grupo para que los entendidos trabajen sobre ellas, y de ese modo, a través de varios pasos de depuración, se vaya conformando una confluencia hacia lo que parece ser la solución más prometedora 4. Método sinergético El grupo, en este caso, es de tipo multidisciplinario, formado por entendidos y no entendidos en el tema especifico. El entendido normalmente enfoca el problema con preconceptos que normalmente limitan su capacidad creadora. El no entendido, al carecer de los preconceptos de los entendidos, le aporta al grupo una cierta capacidad creativa, sugiriendo soluciones que, aunque al principio puedan parecer absurdas, replanteadas pueden ser el germen de una solución innovadora. Teoría de la invención aplicada a la solución de problemas (TRIZ)

Muchos de los métodos dedicados a la innovación tales como torbellino de ideas, diagramas causa-efecto, listado de verificaciones y herramientas usadas en la etapa de definición y conceptualización del producto, tales como ingeniería del valor, análisis de funciones, diseño robusto, la función de despliegue de la calidad, etc. no son apropiadas para resolver las contradicciones a las que están sujetos los productos existentes. Se habla de una contradicción cuando la solución de un parámetro acarrea el deterioro de otro, o bien cuando un mismo parámetro debe satisfacer requerimientos contrapuestos. Generalmente, una nueva invención tiende a eliminar algunas de las contradicciones de la actual solución, pero seguramente también será fuente de otras contradicciones. Es claro que mientras haya contradicciones no resueltas el producto estará sujeto a una carrera de nuevas innovaciones e invenciones. Por análisis de muchas innovaciones, Altshuller, el creador del método TRIZ, encontró que el proceso de invención responde a patrones comunes, los que agrupo en 40 principios de invención. Visto de otra manera, el conjunto de todos estos principios tienden a señalar todas las posibles vías de evolución a las que puede estar sujeto un producto.

Para escapar a las limitaciones de muchos otros métodos, y apoyándose en los 40 principios para la invención, Altshuller propuso una metodología con la finalidad de ampliar la mira de las posibles soluciones. Esta metodología sigue los siguientes pasos:

Identificación del problema Replanteo del problema, analizando y buscando superar las contradicciones físicas

que resultan en las posibles soluciones Análisis de las soluciones previas, y de las restricciones a las que están sujetas Búsqueda de una nueva solución, basándose en alguno de los 40 principios de

invención

Uno de los métodos de solución es denominado Tabla de Eliminación de Contradicciones. Este método, busca primero determinar las contradicciones, considerando en ello 39 parámetros básicos, como ser peso, forma, tamaño, área, durabilidad, rendimiento, potencia, fiabilidad, manufacturabilidad, reparabilidad, productividad, etc. a los cuales podrán

Page 108: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección

100

100

agregarse otros ligados al tipo de producto. La tabla conforma una matriz que tiene en ambos ejes el conjunto de parámetros. En el eje vertical se seleccionan los parámetros a mejorar, y los parámetros que se deterioran a consecuencia de dicha mejora en el eje horizontal. Luego, por intersección de ambos parámetros resultara cual de los principios debiera ser aplicado para resolver el conflicto.

Otro de los métodos propuestos para la solución de conflictos es el ARIZ, un Algoritmo para la Solución de Problemas por Invención, basado en un conjunto de reglas vinculadas a la evolución del producto y de los procesos, las vías de innovación, y a la eliminación de las contradicciones. Los mentores de la metodología TRIZ arguyen que la misma:

Es una herramienta útil en el diseño conceptual Permite orientar y concentrar los esfuerzos de innovación en solo algunas vías Permite identificar que problemas deben ser resueltos para mejorar el producto

actual Sirve para reconocer y solucionar contradicciones, en vez de aceptarlas Permite determinar las posibles formas en que evolucionara un producto Permite reconocer entre varias alternativas cual innovación redundara en un

mejor producto, de menor costo y alcanzable en el menor tiempo Prospección tecnológica

Con la prospección se busca explorar las posibilidades futuras, basándose en indicios del presente. Se trata de identificar la aparición de nuevas tecnologías y de cambios en el comportamiento de la sociedad y de la economía, para definir la mejor forma de posicionarse ante estos nuevos escenarios.

Resulta difícil predecir. La prospección es una tarea compleja y propensa a error. Son muchos los pronósticos y evaluaciones realizadas por personas y por empresas que estando bien compenetradas en el tema han errado totalmente sus pronósticos. Las siguientes citas son solo un ejemplo:

“El fonógrafo ...... no tiene valor comercial alguno”, le decía Thomas Edison, el inventor, a su asistente, 1880. “Es un sueño sin sentido imaginar que....los automóviles reemplazaran a los trenes en el transporte de pasajeros”, American Road Congress, 1913. “No hay ninguna posibilidad de que el hombre pueda obtener energía del átomo”, Robert Millikan (premio Nobel de Física ), 1920. “No existe razón alguna para que las personas tengan una computadora en su casa”, Ken Olsen , presidente de Digital Equipmet Corporation, 1977 “Pienso que hay un mercado mundial solo para cinco computadoras”, Thomas J.Watson, presidente de IBM, 1943 Pero, así como hubo grandes fallas de pronóstico, también hubo grandes aciertos,

siendo sin duda el más resonante el formulado por Moore, quien, en el inicio de la tecnología integrada, estableció que los circuitos integrados tendrían un número de transistores por unidad de superficie que se duplicaría cada año y medio. Su validez actual permite predecir que para el 2005 habrá procesadores con tecnología de 0.01 micras frente a las 0.18 actuales del Pentium 4 y del Athlon. El verdadero problema es como entrever el futuro, dejando de lado las limitaciones tecnológicas del momento. Para ayudar en esto se han desarrollado variadas técnicas, algunas de las cuales se expondrán seguidamente.

Page 109: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección

101

101

Técnica Delfos Consiste en solicitar la opinión de expertos sobre la posibilidad de lograr un desarrollo

nuevo, o de que un producto pueda alcanzar cierto valor en alguno de sus parámetros, y del tiempo que se estima en que eso puede ser logrado.

Definición de escenarios

La idea básica de la prospección es definir futuros escenarios. Un escenario es un

estado hipotético, definido por la aparición de un conjunto de eventos, que de algún modo interesan para la toma de decisiones. La cuestión es saber cuan probable puede ser dicho escenario, basándose en la ocurrencia de otros eventos. En la prospección tecnológica se considera como evento a cualquier suceso que determina que el desarrollo de un producto o material pueda o no ser logrado en algún momento futuro. Ocurre que estos eventos no son totalmente independientes unos de otros: habiendo ocurrido un evento este puede favorecer la ocurrencia de otros. Esta interrelación define una matriz de impacto, con la cual se trata de determinar un posible escenario. Analizando varios escenarios, se puede encontrar la robustez de una estrategia para afrontar posibles condiciones favorables o desfavorables.

Técnicas de Regresión

Este método aprovecha los datos históricos para hacer una proyección futura. El método sirve para medir cambios increméntales. Se basa en la información disponible del pasado (estudio de lo sucedido en los últimos años), y por extrapolación se analiza la posibilidad de que en un futuro se alcance una dada prestación. Es común su uso para la evaluación del nivel de complejidad de los semiconductores. Como ya fue mencionado, Gordon Moore predijo en 1965 que la cantidad de componentes por integrado se doblaría cada dieciocho meses. Con muy leve apartamiento, esta predicción se vio corroborada en la práctica, y derivo en lo que se conoce como ley de Moore.

La ley de Moore supone un comportamiento en función del tiempo de tipo

exponencial, comportamiento que puede generalizarse a otros indicadores de desempeño de los dispositivos digitales. Para el análisis de regresión, resulta conveniente linealizar la relación tomando logaritmos. Basándose luego en datos históricos disponibles, y valiéndose de la función de Matlab polyfit, considerando un polinomio de primer orden, se obtienen los parámetros de la recta que mejor se ajusta a los datos. Luego, con la función polyval( p,t ) se pueden extrapolar los datos a cualquier valor de t. Aplicando esta herramienta a los datos conocidos para los microprocesadores, la velocidad estimada para el año 2021 es del orden de los 510 GHz, figura 25. Aunque alto, el valor no debe asombrar teniendo en cuenta que desde finales del 2001, basándose en la nueva tecnología SiGe, están disponibles microprocesadores capaces de operar a 110 GHz, y transistores capaces de operar a 200 GHz, constituyéndose estos valores en una nueva frontera tecnológica. Sin embargo, recientes trabajos de INTEL muestran que para dicho año, 2021, en el que se espera que los procesos estén en limite de los 5 manómetros, la ley de Moore llegaría su fin.

Fig. 25

Page 110: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección

102

102

Técnicas de Correlación

Muchas áreas siguen a otras áreas. Por tanto, viendo que pasa en un área, se puede deducir lo que ocurrirá en otra después de algún tiempo. El ejemplo clásico es el área militar, muchos de cuyos desarrollos son luego volcados a aplicaciones civiles. Ejemplos notables son las aplicaciones satelitales, Internet, GPS, etc. También es posible hacer estimaciones basándose en los avances de laboratorio en cierta área y analizar luego conque retardo dichos logros posteriormente son volcados en nuevos productos. La aparición de nuevas tecnologías hace posible que en otras áreas se traspasen fronteras que hasta ese momento parecían infranqueables.

Curvas de crecimiento

Es importante poder predecir los momentos en que ocurrirán los distintos cambios en el crecimiento, a fin de determinar por cuanto tiempo mas se es competitivo, y de ese modo poder planear anticipadamente la conversión a un nuevo escenario. En esta tarea ayuda el poder establecer un modelo de crecimiento que mejor se ajusta al comportamiento conocido.

Cualquiera sea el producto o sistema siempre habrá un valor mínimo de arranque, al cual sigue una etapa de crecimiento lento. Superadas las primeras dificultades, comienza una etapa de rápido crecimiento, para nuevamente entrar en un periodo de escaso progreso cuando la prestación se acerca a su máximo posible, normalmente establecido por alguna limitación física o tecnológica. Este tipo de comportamiento conforma típicamente una curva denominada en “S”, tal como muestra la figura 26 para el caso de lámparas incandescentes. La mejora se da en todos los órdenes de prestación. Es así que mientras las primeras lámparas incandescentes duraban tan solo 150 horas, diez años mas tarde, debido a las mejoras introducidas por Edison su duración se extendió a las 1200 horas, con muy pocos progresos posteriores: Actualmente, la duración media se sitúa en las 1500 horas.

Los modelos en “S” requieren que sea establecido el límite máximo que puede ser alcanzado por una dada tecnología. Analicemos un caso: Uno de los factores que más limita la velocidad de procesamiento de los sistemas digitales es el sistema de interconexión entre los distintos dispositivos que integran el sistema. El tiempo de propagación de la señal entre dos dispositivos dependerá de la longitud del camino, y de la velocidad de propagación. La velocidad de propagación esta dada por

rp

cvε

=

donde c, la velocidad de la luz en el vacío, es una constante universal, y εr es la constante dieléctrica del medio.

Seleccionado un material, el tiempo de propagación dependerá solo de la longitud del camino. Si la cantidad de dispositivos por unidad de superficie se cuadruplicara, entonces la longitud del camino medio se reduciría a la mitad, figura 27. En otras palabras, si δ es la densidad de dispositivos por unidad de superficie, entonces la longitud del camino medio variara con δ . Por lo tanto, una medida de la perfomance tecnológica estaría dada por

Fig.26

(13)

Page 111: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección

103

103

r

PTεδ

=

La figura 28 muestra la mejora de la perfomance debida al aumento de la densidad

para los dos tipos de sustrato más usual. Modelos teóricos de prospección

Un invento puede verse como una brusca ruptura en la evolución de un producto o tecnología. Como se ha visto, la evolución sigue siempre una curva en S, en la cual se reconocen tres fases, figura 29. Reconocer estas fases es importante, dado que tanto en la primera como en su última fase, se requieren grandes esfuerzos para lograr solo mejoras poco significativas. Es decir, el gran desafío es lograr entrar rápidamente en la fase dos, y reconocer luego cuando se esta dentro de los limites físicos para no malgastar esfuerzos en la fase tres, determinando el mejor momento para saltar de una generación a otra. Conocer esto, para cualquier empresa, es una decisión de capital importancia En otras palabras, es importante para cualquier empresa saber cuando es necesario volcar todos los esfuerzos en el nuevo producto, lo que implica desatender la innovación del producto actual, sin por ello quedar desubicada frente a la competencia. Para resolver esto son útiles los modelos de evolución.

El modelo de Pearl es uno de los modelos matemáticos más usuales para el análisis de

la evolución. Este modelo originalmente fue propuesto para evaluar el crecimiento de una población. Responde a la expresión

Fig.28

Lo/2

Lo

Fig.27

(14)

Fig.29

Page 112: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Innovación y Prospección

104

104

donde L es el limite teórico y a, y b constantes del modelo.

La ventaja del modelo de Pearl es que la forma y la ubicación de la curva pueden controlarse en forma independiente. Para aplicar el modelo, primero se linealiza la curva aplicando logaritmos en la expresión (15 ), y se ajustan luego los parámetros a los datos disponibles

El modelo propuesto por Gompertz, es más apropiado cuando hay un fuerte crecimiento, Este modelo da lugar a una curva asimétrica, y al igual que en el modelo de Pearl, para determinar los parámetros del modelo, primeramente se debe linealizar y hacer luego una regresión lineal basándose en los datos disponibles. Hay muchas otras leyes que pueden ser aplicadas para ajustarse a curvas con forma de S, además de las leyes de Pearl y Gompertz ya analizadas, como ser

( )3

)/(

1 bt

tba

aey

ey−

−=

=

La estimación de los parámetros puede hacerse de un modo directo. Para el caso de la

expresión (17) se toman logaritmos en ambos miembros, y luego se determina el mejor ajuste por el método de los cuadrados mínimos en base a los datos disponibles. De este modo se determinan las constantes a y b. Esto no es posible para la ecuación (18), donde se debe recurrir a un método de cálculo con técnicas de regresión no lineal. La figura 30 muestra en forma comparada las curvas de estos modelos.

En todos los casos primero se debe determinar los límites tecnológicos o físicos, y luego en función de los datos conocidos, mediante técnicas de regresión, se determinaran los parámetros del modelo. Luego se podrá extrapolar los resultados para un tiempo futuro dado.

(17) (18)

Fig.30

(15)

(16)

Prestación = tbea

L.*1 −+

Prestación = btaeeL

−−*

Page 113: Libro Materia

Fiabilidad

Una persona puede fallar muchas veces, pero solo reconocerá sus fallas

si encuentra alguien a quien culpar JOHN BURROUGHS

El hecho de que un equipo deje de cumplir en algún momento con su función es un hecho indeseado. Visto de otro modo, el tiempo durante el cual se puede asegurar que la función va a ser satisfecha sin que ocurra falla alguna pasa a ser un factor de merito importante. Esta característica esta ligada a la fiabilidad del equipo.

Más propiamente, la fiabilidad se define por la probabilidad de que un componente, producto, equipo, o sistema funcione durante un lapso de tiempo bajo condiciones de carga prefijadas. Se han remarcado los cuatro elementos fundamentales de la definición; veamos qué significado tienen y en qué se traduce cada uno de ellos.

Al definir la fiabilidad como una probabilidad, esto lleva implícito que:

• los resultados son aplicables al comportamiento de poblaciones • los resultados son aplicables solo al lote del cual se extrajeron las muestras • los resultados solo pueden obtenerse de tratamientos estadísticos basados en pruebas

experimentales o evaluaciones de campo • la estimación tendrá un riesgo asociado al tratamiento estadístico

Es claro que si la caracterización se restringiera solo al lote del cual se extrajeron las

muestras tendría poca utilidad. Para que la fiabilidad sea una herramienta útil debe permitir aplicar los resultados hacia futuro, y más que eso, poder predecir comportamientos y poder saber cómo hay que llevar el proyecto para poder cumplir con metas concretas de fiabilidad. Esto solo es posible si se mantiene la caracterización estadística. Podrá inferirse esto si la nueva población es fabricada de la misma manera, con los mismos insumos, procesos y controles, de modo que quede asegurada la repetibilidad. Como estos elementos dependen de cada fabricante, es posible que un mismo tipo de componente que es suministrado por dos proveedores tenga distinta fiabilidad.

Al decir “funcionar” se quiere significar que se satisface la especificación. En una acepción más amplia, seria satisfacer la necesidad. El incumplimiento de la especificación puede ser temporario o definitivo, puede ser parcial o completo, puede ser repentino o gradual, lo cual lleva a clasificar las fallas de distintas formas, por ejemplo atendiendo su causa:

• Fallas primarias: fallas no causadas ni directamente ni indirectamente por la falla de otro dispositivo

• Fallas secundarias: fallas provocadas por la falla de otro dispositivo • Fallas por mal uso: cuando resulta por aplicar el dispositivo fuera de sus limites • Falla por debilidad inherente: si sobreviene operando el dispositivo dentro de su

especificación • Falla por desgaste: cuando la falla sobreviene con el uso

Atendiendo la velocidad de aparición se clasifican también en fallas repentinas o

fallas progresivas, y dependiendo del grado o severidad en falla parcial o completa. Es parcial cuando se desvía en una o varias características, pero no entraña la desaparición completa de su funcionalidad. Por el contrario en una falla completa el dispositivo pierde toda funcionalidad. Si la falla se manifiesta por un lapso de tiempo, después del cual recobra plena funcionalidad sin ser sometido a acción externa alguna, se habla de una falla intermitente.

Page 114: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

106

106

t

No

N f (t)∆

t+ t∆

N f (t)

N f (t)

N s (t)

Otra clasificación toma en cuenta el grado y la velocidad, diferenciando entre fallas catastróficas, las cuales son fallas repentinas, completas y definitivas, figura 1, y fallas por degradación o fallas paramétricas, las cuales son fallas progresivas y parciales. El tratamiento que sigue esta referido exclusivamente a las fallas catastróficas, las que a su vez pueden definirse como fallas relevantes o no relevantes. Ejemplos de fallos no relevantes son aquellos derivados de la fabricación, o el mal uso, como seria cuando el ambiente de operación supera los límites especificados. Se consideran relevantes las fallas repentinas de los componentes que ocurren bajo condiciones normales de operación, y que tienen carácter permanente. Es decir, se excluyen las fallas secundarias, las debidas al factor humano o por influencias externas, y en general todas aquellas que dependan en gran parte del usuario, y que por tanto escapan del dominio del fabricante. Funcionar durante un lapso de tiempo significa que a partir de cierto instante t=0 el equipo se mantiene en funcionamiento en forma ininterrumpida. Esto implica que en t=0 el componente, equipo o sistema tiene que estar funcionando, o sea R(0)=1; la otra certitud es que en algún momento futuro sobrevendrá la falla, o sea con certeza 0)( =∞R .

Hallado un comportamiento, este es valido para un tipo de carga; si esta se varía, los

resultados serán diferentes. Carga es todo lo que afecte la fiabilidad: temperatura, tensión, etc. Debido al hecho de que los resultados no son de aplicación para un elemento individual, puede pensarse que la fiabilidad es una herramienta teórica de poca utilidad práctica. Pero el solo hecho de que suministre una expectativa, un comportamiento medio, tiene de por si, como se vera, un gran valor práctico.

Fiabilidad observada, estimada, extrapolada y prevista La probabilidad es una medida de la relación entre éxitos (o eventos favorables) sobre eventos posibles. Supongamos que se cuenta con un lote de No elementos no reparables, puestos a funcionar en el instante t=0. Anotando la cantidad de ellos que van entrando en falla a lo largo del tiempo se obtiene una curva de mortalidad, figura 2. En un instante t en particular habrán fallado Nf(t) elementos y sobrevivido Ns(t), por tanto la probabilidad de que ocurra la falla antes del instante t resultara dada por

o

f

NtN

posibleseventosfavorableseventostF

)()( ==

y la fiabilidad observada por

)(1)()()( tF

NtNN

NtN

posiblescasosfavorablescasostR

o

fo

o

s −=−

===

Supongamos ahora que se trate de un solo dispositivo y que este sea reparable. Esto supone que producida la falla será reparado y repuesto en servicio. Si cada vez que es repuesto en funcionamiento se determina el tiempo que tarda en volver a caer en falla, entonces al cabo de No fallas tendremos No valores de tiempo para la falla, que ordenamos de menor a mayor,

Noj ttttt <<<<<< ................321

Fig.2 Fig.1

(1)

(2)

(3)

X falla catastrofica

fa lla param etrica

m inim o valor aceptable para X

t

Page 115: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

107

107

(4)

10....

321

No

0.7

R(t)

tO tO tt

Para un tiempo tj < to < tj+1, se define la fiabilidad observada R(to) por, figura3,

o

oo N

jNtR

−=)(

y tratando estadísticamente los valores observados se puede hacer una estimación de la fiabilidad, y determinar un intervalo de confianza, prefijado el nivel de confianza.

Cuando se extiende por extrapolación o interpolación la fiabilidad observada o estimada a duraciones o condiciones diferentes de aquellas que corresponden a los datos, se habla de una fiabilidad extrapolada. La validez de la extrapolación estará justificada si se hace en base al modelo de fallas que resulta del mejor ajuste a los valores experimentales. Prefijadas las condiciones de uso, basándose en consideraciones del diseño, es posible calcular la fiabilidad de un dispositivo, equipo o sistema a partir de la fiabilidad de sus componentes. Se habla en este caso de una predicción de fiabilidad. Cuando se hace la determinación a partir de valores obtenidos por el uso del equipo o de pruebas de campo se habla de una fiabilidad de campo. Los diferentes valores de fiabilidad se vinculan en la forma indicada en la figura 4. Tasa de fallas

Propongámonos hallar la cantidad de elementos fallados en un intervalo posterior a t, t+∆t a partir de la curva de mortalidad. Es obvio que la cantidad de elementos que fallen en el lapso ∆t va a ser proporcional a ∆t, y a la cantidad de sobrevivientes hasta el instante t. Obviamente, solo podrán fallar durante ∆t los que estén en funcionamiento en el instante t. Al coeficiente de proporcionalidad se le denomina tasa de fallas, y se indica por λ,

ttNtN sf ∆=∆ ).(.)( λ de donde,

t

tNtN

t f

s ∆

∆=

)(.

)(1)(λ

En base a la definición de la función de fallas F(t), expresión (1), la cantidad de fallados en ∆t será,

tNtfNt

ttFNtFtN ooof ∆=∆

∆∆

=∆=∆ .).(..)().()(

Si se compara (6) con (7) y se tiene en cuenta (2), resulta

dttdR

tRtRtf

tNNotf

s

)(.)(

1)()(

)().( −===λ

(6)

(7)

(5)

(8)

Fig.3

Fig.4

Población

Muestra Fiabilidadobservada

Fiabilidadestimada

Fiabilidadextrapolada

Fiabilidadprevista

Fiabilidadde soporte

Page 116: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

108

108

carga

λ(t)

t t

Fallasaleatorias

ta

λ(t)Fallas

infantiles

Fallas porenvejecimiento

la cual expresa la tasa de fallas como la probabilidad de que el elemento falle en el intervalo ∆t subsiguiente al instante t, suponiéndolo en funcionamiento en el instante t.

Debido a que la tasa de fallas medida en 1/hora es una unidad muy grande, en la norma militar HDBK-217 se comenzó expresándola en por ciento por mil horas, ( 10-5 1/h), y mas recientemente en fallas por millón de horas, ( 10-6 1/h), salvo en el ambiente profesional para el que se introdujo como unidad específica el FIT ( failure in time ), unidad de fallas en el tiempo, que mide la cantidad de fallas cada 109 horas, o sea

[ ]horaFIT /1101 9−=

Fallas infantiles, accidentales y por envejecimiento La variación de la tasa de fallas con el tiempo, λ(t), responde a un modelo genérico,

consecuencia de la combinación de dos mecanismos: Uno debido a las debilidades que puede tener el dispositivo por vicios de proceso o debilidades de los materiales (fallas infantiles), y otro debido al desgaste con el uso (fallas por envejecimiento). Su combinación determina un comportamiento que, por la forma que toma, se conoce como curva en bañera, figura 5. La tasa de fallas es función, además del tiempo, de la carga: si esta se incrementa, la tasa de fallas sube, figura 6

La exigencia de tasa de fallas depende del mercado al que esta orientado el producto.

El mercado de entretenimiento es muy masivo, manejándose anualmente para la mayoría de los componentes volúmenes de varios miles de millones de unidades. El segmento profesional es menos masivo, en varios órdenes de magnitud, y el militar, en el que se engloban los equipos de uso táctico, es un mercado aun más restringido. Aparte, por tratarse de un mercado sensible, los componentes se someten al final del proceso de fabricación a una etapa de depuración, en la cual se aplican cargas para segregar los elementos débiles. Los elementos exentos de debilidades que sobreviven pasan a sufrir fallas aleatorias, con λ constante.

Los componentes electrónicos se diferencian de otros componentes (por ejemplo de los mecánicos) por el hecho de que el instante a partir del cual se manifiesta el envejecimiento está muy lejano en el tiempo, volviéndose los equipos obsoletos más tempranamente. Requerimientos de tasa de fallas

La exigencia de tasa de fallas de los componentes depende de la aplicación: del nivel de complejidad y las exigencias de uso. Supongamos un radiorreceptor, un equipo de comunicaciones, y una computadora de mediana a grande, y que cada uno tenga una cantidad de circuitos integrados No de similar complejidad, y que las fallas admitidas por año y las horas de uso al año sean las indicadas en la tabla I. Basándose en (6) resulta

[ ]FIT

HN

N a

f

o

.10 9

Fig.5

(9)

Fig.6

Page 117: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

109

109

TABLA I

EquipoNumero deelementos

Numero defallas al año

Horas de servicioal año

Tasa de fallas

Radiorreceptor 2 2 1000 106

Comunicaciones 20 0,5 4000 6250

Computadora 2000 0,1 8760 5,70

No Nf Haλ [FIT]

Observando los valores calculados, se aprecia por un lado que los valores de tasa de fallas requeridos en cada aplicación son muy diferentes, y por otro, que los equipos de alta complejidad requieren valores de tasa de fallas extremadamente bajos. El primer problema que esto acarrea es como asegurar estos valores de λ, siendo que en estos casos las fallas pasan a ser eventos muy esporádicos, muy raros, lo cual hace muy difícil constatar un número de fallas relevantes, que sea estadísticamente significativo.

Estimación de la tasa de fallas

Siendo la tasa de fallas un evento raro, para su determinación se recurre a ensayos

censurados. Un ensayo se dice censurado cuando se impone un limite a las observaciones; es decir, se restringe el intervalo dentro del cual se van efectuar las observaciones. La censura determina el criterio que define la finalización del ensayo, lo cual puede ocurrir cuando se alcanza un número prefijado de fallas r (censura de tipo I), o bien cuando transcurre un tiempo prefijado de ensayo T (censura de tipo II), denominados a veces ensayos truncados en tiempo.

El valor de r, o el valor de T, es fijado al inicio del ensayo, al igual que la cantidad de elementos N a ensayar. En un ensayo censurado del tipo I, el tiempo tr al cabo del cual se produce la r-esima falla es la variable aleatoria. El tiempo total acumulado de funcionamiento de los N elementos será

rr trNtttS ).(...21 −++++= si no se hace reemplazo de los elementos fallados. Es claro que S es una nueva variable aleatoria, que para el caso de una prueba con reemplazo valdría,

rtNS .= Si λ es la tasa de fallas y N.tr es el tiempo acumulado hasta que se produzca la falla

r, cabe esperar que el número de fallas r sea una variable aleatoria cercana a λ.N.tr. Mas precisamente, Epstein y Sobel demostraron que la variable

λ...2 rtNu =

responde a una distribución χ2 con n=2.r grados de libertad, y que es además un estimador insesgado de λ.

n=4

n=6 n=6

n=4

n=8 n=8

2S maxλ2S minλ 2S maxλu=2.S.λ u=2.S.λ

Fig.7 Fig.8

(10)

(11)

(12)

Page 118: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

110

110

0 1 2 3 4 5 6 7 8 9 100123456789

1011121314151617181920

numero de fallas (r)

Chi

al c

uadr

ado/

2

Nivel de confianza 95% 90%

60%

50%

Siendo conocida la forma en que se distribuyen los valores de 2.S.λ, es posible determinar con una probabilidad preestablecida el intervalo dentro del cual se encuentra 2.S.λ. Prefijados dos valores λmin y λmax, en base a los valores de S y n que resultan del ensayo, se puede afirmar con una probabilidad (1-α) que u = 2.S.λ se encuentra dentro del intervalo [(2.S.λmin), (2.S.λmax)], figura 7, donde

∫ −=max

min

..2

2

1).(λ

λ

αS

S

duuf

es el nivel de confianza de la estimación. Los valores comprendidos entre λmin y λmax, determinan el intervalo de confianza, y (1-α) es el nivel de confianza de la estimación. Si la estimación se hace para la peor condición, es una estimación unilateral (α1=0,α2=α), con todo el riesgo a la derecha, figura 8.

Este tipo de ensayo tiene el inconveniente de que demanda un esfuerzo constante de monitoreo, y su duración es indeterminada. Se evita esto con ensayos truncados por tiempo, para acotar el esfuerzo del ensayo. En este caso, la cantidad de elementos N y el tiempo de ensayo T son fijados al inicio del ensayo, siendo r la variable aleatoria. Este caso se reduce al anterior, por estar comprendido dentro de sus límites (fallas entre r y r+1). En efecto, si el valor de T concordara exactamente con el tiempo de aparición de la falla r, entonces los dos métodos serian idénticos. La otra condición extrema que podría presentarse es que ocurriera la falla r+1 de haberse prolongado un tiempo infinitesimal mas el ensayo, y en tal caso los grados de libertad de la función χ2 serian

n=2.(r+1)

En función de esto, el valor de λ puede ser estimado por

( )tN

n.

1..2

,12 αχλ −=

donde: N, es la cantidad de elementos que se someten a ensayo t es el tiempo de duración del ensayo

),1(2 nαχ − es el valor de la distribución Ki al cuadrado, correspondiente a un nivel de confianza 1-α, y n grados libertad, fijados por (14).

El volumen del ensayo, cantidad de componentes a ensayar por el tiempo de duración

del ensayo, será función del máximo valor que se quiera garantizar para la tasa de fallas, y del nivel de confianza ( 1-α ), el cual es fijado normalmente en el 60% para estos ensayos. Si el nivel de confianza fuera mayor, digamos del 95% en vez del 60%, el volumen de ensayo debería más que triplicarse para garantizar igual valor para la tasa de fallas, figura 9.

Fig.9

(15)

(13)

(14)

Page 119: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

111

111

Supongamos que se trata de reemplazar un componente cuya tasa de fallas λo es conocida, y que se debe definir un ensayo para verificar que el λ del nuevo componente propuesto no es peor. Usar la expresión (15) para determinar la cantidad de muestras y el tiempo de ensayo no es posible, pues su aplicación supone conocer los resultados del ensayo anticipadamente a su realización. Este tipo de problemas es frecuente en la tarea de desarrollo. Cuando se presentan estos problemas, la solución es hipotetizar un resultado y realizar luego los cálculos o el experimento, según corresponda, y ver si la hipótesis es congruente con los resultados. Si los resultados cierran, la hipótesis queda validada; caso contrario se desecha.

Como este ensayo no busca caracterizar, sino verificar que λ está por debajo de un tope, λo, el ensayo puede ser muy abreviado. La expresión (15) permite definir el producto N.t si fuera conocido ),1(2 rαχ − ,

o

rtNλ

αχ 1.2

),1(.2 −

=

Prefijado el nivel de confianza, 60%, se debería conocer el valor de r, cantidad de fallos al final del ensayo. La solución pasa por hipotetizar un resultado final, hipótesis que se debería basar en el mínimo esfuerzo: la menor cantidad posible de muestras, y tiempo de ensayo lo más corto posible. Obviamente el ensayo más corto es aquel que termina sin que se produzca fallo alguno. Suponiendo entonces que no falló ningún elemento, en tal caso todos los parámetros de la expresión (16) son conocidos, lo que permite determinar N.t. Ejecutado el ensayo, si al cabo del tiempo que resulta de aplicar (16), considerando la cantidad de elementos ensayados, se hubiera producido 1 o más fallas, entonces no se cumpliría la hipótesis. Es decir, la conclusión sería en este caso que la tasa de fallas es superior a la fijada como meta.

La dificultad en este tipo de ensayos es el gran volumen de ensayo requerido cuando se manejan muy bajas tasas de falla, como sería el caso de los componentes usados en una computadora basándose en los datos indicados en la Tabla I. En este caso, para un nivel de confianza del 60% y cero fallas, el volumen del ensayo requerido debería ser

].[1075,17,5

10.7,5

10.2

)0%,60(. 8992

hcomponentextN ≈≈=χ

Eso significa que si por ejemplo se pidieran 2 componentes, el ensayo duraría 1.75x108 horas, algo imposible. Si se quiere achicar el tiempo de ensayo se debería usar una magnitud tan grande de componentes que también escapa a toda posibilidad de verificación experimental. Restan dos opciones: Recurrir a ensayos acelerados, o reducir el nivel de confianza. Riesgos tan altos como del 90% son a veces usados en los ensayos que tienen por fin asegurar el mantenimiento de la caracterización. Ensayos acelerados

Se podría simplificar el ensayo si fuese conocida la relación entre la tasa de fallas para la condición de carga especificada y la tasa de fallas para una condición más severa, de modo que la tasa de fallas sea varios miles de veces superior y ello acorte el tiempo requerido para alcanzar un número de fallas prefijado. Luego, en base al factor de aceleración AF, que relaciona las tasas de fallas para ambas condiciones de carga,

se determina la tasa de fallas que corresponde a la condición de carga normal, λn. La única limitación para su aplicación es que se mantenga el mecanismo de falla.

De las muchas variables de aceleración, dos son las más utilizadas: la temperatura y la tensión eléctrica. La temperatura tiene como ventaja la facilidad de implementación, por ser fácilmente controlable, permitir una aplicación masiva, y proveer además un elevado factor de aceleración.

(16)

(17) ==a

nAFλλ ϕ( ) carga normal

carga acelerada

Page 120: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

112

112

Ley de Arrhenius La ley de Arrhenius mide la velocidad de los procesos físico-químicos, vale decir, la

velocidad v de cambio de una característica por unidad de tiempo. La ley expresa que

TkE

o

a

eVv ..−

= donde Ea se conoce como energía de activación, y es medida en eV; k=8,63x10-5 eV/K , es la constante de Boltzmann; T es la temperatura en Kelvinos ( K ), y Vo es la máxima velocidad del proceso.

Aceptemos que un elemento entra en falla cuando el valor de su característica X sufre un corrimiento que supera un cierto valor. Supongamos entonces que el valor máximo admitido en el corrimiento de un componente para considerarlo en estado de falla sea

limXX ∆=∆ La velocidad de cambio esta definida por la expresión (18), por lo que a la

temperatura T este valor se alcanzara en el tiempo ∆t, Tk

E

o

a

eVt

X .lim .−

=∆

A otra temperatura T1 esta condición límite se alcanzara en un tiempo ∆t1, siendo

1.

1

lim . TkE

o

a

eVt

X −

=∆

Relacionando ambas expresiones surge

⎟⎟⎠

⎞⎜⎜⎝

⎛−

=∆∆

= 1

11

1

TTkE a

ettAF

La relación 1/ tt ∆∆ es el factor de aceleración que, como se observa, varia exponencialmente con la temperatura. Linealizando en 1/T, resulta

⎟⎟⎠

⎞⎜⎜⎝

⎛−==

1

1 11.)ln()ln(TTk

EAF a

λλ

En la figura 10 se grafica el factor de aceleración, AF, en función de T, referido a la temperatura normal de 50ºC. Se muestra también en línea punteada la aproximación empírica conocida como la regla de los 10 grados. Esta regla dice que la vida de un componente o material se reduce a la mitad por cada 10ºC de aumento en la temperatura.

Conocida la energía de activación, bastaría un solo ensayo para hallar el tiempo para

la falla operando a una temperatura acelerada T; caso contrario, se deberán hacer dos ensayos, a dos temperaturas distintas.

(18)

(19)

(20)

(21)

(22)

Fig.10

(23)

Page 121: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

113

113

(27)

Ley de los aislantes Para los aislantes se usa como variable de aceleración la tensión. La ley general de los aislantes supone que la tasa de fallas responde a la ley,

βλ −= Vk .

por lo cual, la aceleración resulta dada en este caso por la expresión,

β

⎟⎠⎞

⎜⎝⎛=

∆∆

=VV

ttAF 1

1

donde β es una característica propia del material aislante.

Modelo de Eyring

A diferencia de los modelos anteriores, que tienen fundamento empírico, el modelo de Eyring ha sido derivado de consideraciones teóricas de mecánica cuántica. En este modelo, la velocidad de proceso v en su expresión más simple esta dada por CSTB eeTAv /.. −= α

donde a, A, B y C son constantes apropiadas, T es la temperatura en kelvinos y S un segundo factor de solicitación no térmico: humedad, tensión eléctrica, etc. Cuando el factor a tiende a cero, y solo se tiene como factor de carga la temperatura, el modelo lleva al de Arrhenius.

El modelo de Eyring, en particular, es aplicado para determinar el tiempo para la falla cuando el componente esta sometido a una humedad relativa HR,

HRb

f eat .= donde a y b son constantes que dependen del dispositivo y en especial del encapsulado.

La humedad relativa HR debe evaluarse en el entorno del dispositivo y no en base a la humedad ambiente. Ambas coincidirán solo si el dispositivo no disipa potencia.

Expresión general de la fiabilidad

De las expresiones (2) y (6) se deduce dtt

tRtdR ).()()( λ−=

la cual puede resolverse dado que se conocen las condiciones iniciales, pues es siempre R(0)=1, de modo que

∫∫ −=ttR

dtttRtdR

0

)(

1

).()()( λ

que puede ponerse en la forma

( ) ( ) ( ) ∫==−t

o

dtttRtR ).()(ln1ln)(ln λ

lo cual lleva a la expresión generalizada de la fiabilidad,

=−

t

dtt

etR 0

).(

)(λ

expresada en función de λ(t). También, en base a (2) y (31) resulta

∫−=

−t

dtt

etF 0

).(

1)(λ

como expresión generalizada de la ley de distribución de fallas.

(29)

(31)

(25)

(32)

(28)

(26)

(24)

(30)

Page 122: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

114

114

Fallas por solicitación El modelo de tasa de fallas constantes, derivado para sistemas sometidos a una carga fija, puede aplicarse también a sistemas expuestos a una serie de solicitaciones, cada una con una pequeña probabilidad p de provocar la falla. Suponiendo que la probabilidad de falla en cada solicitación es independiente de las solicitaciones previas, luego de n solicitaciones la fiabilidad estará dada por npnR )1()( −= Si en la igualdad )ln(ReR = se tiene en cuenta ( 33 ) resulta )1ln(.)( pnenR −= y si p es muy pequeño, en el desarrollo en serie de ln(1-p) se pueden despreciar los términos de segundo orden o mayores, quedando así npenR −=)( que muestra que la fiabilidad decrece exponencialmente con el número de solicitaciones. Si suponemos que las solicitaciones ocurren regularmente a intervalos ∆t , entonces en el tiempo t se tendrán ttn ∆= solicitaciones, siendo en tal caso

ttt

poeetR ..

)( λ−∆−

== donde

t

po ∆=λ

es constante. Como p es igual a la relación entre la cantidad de fallados en ∆t, ∆Nf, respecto de los sobrevivientes al inicio de ∆t, Ns, la expresión (38) resulta coincidente con la (5). Es decir, el modelo de fallas exponencial correspondería al caso en el que las solicitaciones son regulares. Tiempo medio entre fallas

Aparte de la fiabilidad, R(t), otro parámetro indicativo es el tiempo medio para la falla, TMPF, termino usado para el caso de equipos o componentes no reparables. En el caso de equipos reparables será el tiempo medio entre fallas, TMEF, indicado a veces como MTBF (Mean Time Between Failures ). Este se define por la esperanza matemática de primer orden,

∫∞

==0

).(.)( dttfttETMEF

donde f(t) es la función de densidad de fallas. Dado que ( ) dttftdttRdRtdttRtRtd ).(.).(.).()(. −=+=

y como ( ) [ ] 0)0(.(0)(.)(.)(. lim0

0

=−==∞→

∞∞

∫ RtRttRttRtdt

suponiendo que R(t) tiende rápidamente a cero cuando ∞→t , por lo cual

∫ ∫∞ ∞

===0 0

).().(.)( dttRdttfttETMEF

(38)

(33)

(34)

(35)

(36)

(37)

(39)

(40)

(41)

(42)

Page 123: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

115

115

t

f(t)

s=1

s=0.4

t

σ1

σ2 >σ1

f(t)

λ(t)

t

σ1σ2 >σ1

β<1β=1β>1

t

λ(t)

β<1

β=1

β>1

t

f(t)

t

λ(t)

s=1

s=0.4λ(t)

t

λ1

f(t)λ 1

λ 2

t

λ2

Exponencial LognormalWeibullNormal

ot λλ =)(

Fig.11

Modelos de fallas: fiabilidad extrapolada Con los datos relevados en las pruebas experimentales sería posible determinar la distribución de las fallas en función del tiempo. Pero, este relevamiento en la mayoría de los casos es imposible de realizar en forma completa en todo el tiempo de interés. Se trata entonces de ver como unos pocos datos obtenidos en tiempos relativamente breves pueden ser extrapolados a cualquier otro instante. Esto es posible si se demuestra que las fallas responden a un modelo analítico determinado, y en tal caso se habla de una fiabilidad extrapolada Aunque de hecho cualquier distribución de probabilidades podría ser propuesta, con frecuencia los modelos propuestos se reducen a unos pocos. El mas conocido es el exponencial, siendo otros modelos muy usados los de Weibull, el lognormal, y el normal, figura 11.

Si las fallas son de tipo accidentales es , y en tal caso, de (31) resulta el modelo de fallas exponencial tetR λ−=)( y por (2 )

tetRtF λ−−=−= 1)(1)( siendo la función de densidad de fallas,

tedt

tdFtf λλ −−== .)()(

También, en base a (42) y (43), resulta

oo

t

o

tdedttRTMEF o

λλ

λλ 1)(.1.)(

00

=== ∫∫∞

−∞

Si las fallas son por desgaste podrá aplicarse el modelo normal siempre que F(0) sea despreciable. Esta ley corresponde a elementos con tasas de fallas creciente con el tiempo, y su mayor ventaja es la gran cantidad de herramientas disponibles para su tratamiento.

Otro modelo muy usado es el de Weibull, en el cual la función de fallas es de la forma

β

η ⎟⎟⎠

⎞⎜⎜⎝

⎛−

−=t

etF 1)( de modo que

β

η ⎟⎟⎠

⎞⎜⎜⎝

⎛−

=−=t

etFtR )(1)(

β

ηβ

ηηβ ⎟⎟

⎞⎜⎜⎝

⎛−

⎟⎟⎠

⎞⎜⎜⎝

⎛=

t

ettf ..)(1

y 1

.)()()(

⎟⎟⎠

⎞⎜⎜⎝

⎛==

β

ηηβλ t

tRtft

(47)

(48)

(49)

(50)

(46)

(43) (44) (45)

Page 124: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

116

116

La ventaja que tiene la función de Weibull es que la misma es muy flexible y puede adaptarse e interpretar desde fallas del tipo prematuro, como fallas por envejecimiento, y contiene además como caso particular a la distribución exponencial, de tasa constante. Su mayor desventaja reside mayormente en la falta de métodos y herramientas para su tratamiento.

El modelo lognormal posiblemente sea la función de fallas más común. Este modelo resulta de suponer que las fallas se distribuyen normalmente no en relación al tiempo, sino respecto al logaritmo del tiempo. Es decir, así como el modelo normal resulta de la suma múltiples variables aleatorias,

nxxxx +++= ..........21 la distribución lognormal se considera que resulta por el efecto multiplicativo de muchas variables aleatorias,

nyyyy *........** 21= de modo que, haciendo x=log(y) resulta para x una distribución normal y para y una lognormal.

La distribución lognormal supone que la fatiga es el causal de falla, y que al principio los materiales sufren un proceso rápido de reacomodamiento, que luego se vuelve muy lento.

Papel probabilístico

Un modo practico y rápido de hallar si un modelo de fallas se ajusta a los resultados experimentales es utilizando papel probabilístico. La idea del papel probabilístico es realizar una deformación ( transformación ) de las escalas de modo que la representación de la distribución en dicho papel se corresponda a una recta. Como esta transformación es propia de cada tipo de distribución, cada papel se conoce por el nombre de la distribución que linealiza. Estos papeles permiten obtener una estimación de los parámetros de la distribución, y con ello la extrapolación de los resultados más allá de los datos experimentales. Si bien el papel probabilístico normal es de uso frecuente, no es ese el caso de los papeles de las otras distribuciones. Actualmente, todos los paquetes de software dedicados al tratamiento estadístico, como el Minitab, incluyen para las funciones de distribución usuales la graficación en los papeles probabilísticos correspondientes.

Por caso, para una distribución de Weibull, como es,

β

η ⎟⎟⎠

⎞⎜⎜⎝

⎛−

−=t

etF 1)( la cual puede ponerse en la forma

( ) )ln(.)ln(.

)(1ln1ln ηββ −=⎟⎟

⎞⎜⎜⎝

⎛−

ttF

que adopta la forma de una recta si se hace el siguiente cambio de variables

( ))ln(

)(1ln1ln

txtF

y

=

⎟⎟⎠

⎞⎜⎜⎝

⎛−

=

De un modo similar se obtienen los papeles exponencial, normal y lognormal. Luego, si se vuelcan los valores obtenidos experimentalmente sobre dichos papeles, observando en cual de ellos los datos se ajustan mejor a una recta, esta condición definirá el modelo de la distribución que debe ser usada.

Alternativamente, pueden usarse otros tipos de pruebas, tales como la de Kolgomorov-Smirnov o una prueba de ajuste en base a la distribución χ2, para lo cual puede recurrirse a alguna de las herramientas computacionales, como por ejemplo Matlab. Si los valores de los tiempos de falla exactos se ignoran, debido a que resultan de comprobaciones periódicas, y solo se sabe que ocurrió dentro del intervalo entre la anterior inspección y la presente, convencionalmente se asigna como tiempo de falla el correspondiente al momento de la inspección en que es detectado, aunque esto agrega cierta incerteza.

(51)

(52)

(53)

(54)

(55)

(56)

Page 125: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

117

117

En funcionamiento

En reparación

t

tf1 tf2 tfi

tritr2tr1

Disponibilidad Si un equipo que es reparable falla, cabe esperar que en algún momento posterior se

encuentre nuevamente en funcionamiento. La disponibilidad, A(t), mide precisamente la probabilidad de encontrar el equipo funcionando en un instante cualquiera t. Si el instante t esta suficientemente alejado del instante en que entro en reparación o se hizo la reposición de funcionamiento, la disponibilidad resulta independiente de t, y define lo que se conoce como disponibilidad a largo plazo o disponibilidad final del equipo. La disponibilidad final es un factor importante en equipos de uso continuo, pues mide su máxima posibilidad de utilización.

Un equipo reparable solo pueda estar en uno de dos estados: funcionando o en reparación. Supongamos que sea tri el tiempo insumido en la reparación i, y que sea tfi, el lapso de tiempo que funciona sin discontinuidad hasta la aparición de la falla siguiente, figura 12. Claramente se ve que al cabo de un tiempo T se habrán efectuado n reparaciones, siendo el tiempo total de funcionamiento ∑=

n

fif tT1

y el tiempo insumido en las reparaciones ∑=

n

rir tT1

El porcentaje de tiempo que el equipo esta en uso, evaluado en el tiempo Tf+Tr, es

TMRTMEFTMEF

n

tt

n

t

tt

t

TTT

FU n

ri

n

fi

n

fi

n

fi

n

ri

n

fi

rf

f

+=

+=

+=

+=

∑∑

∑∑

11

1

11

1

que se ve es función de la relación entre el tiempo medio entre fallas, TMEF, y el tiempo medio de reparación, TMR. Esta relación define precisamente la disponibilidad de largo plazo.

Hallar la probabilidad de hallar en funcionamiento un equipo en un instante t suficientemente alejado de t=0, es equivalente a la probabilidad de que un punto elegido al azar dentro de un segmento de longitud total T = Tr + Tf, este ubicado en el subsegmento Tf. Es decir, la disponibilidad a largo termino D estará dada por

TMRTMEFTMEFAD

+=∞= )(

La disponibilidad pasa a ser un factor prioritario en aplicaciones de servicio continuo, como pueden ser estaciones de radiodifusión, líneas de fabricación continua, servicios públicos de telecomunicaciones, etc., dado que los tiempos perdidos son irrecuperables. Ahora bien, se pueden obtener valores altos de disponibilidad con valores de tiempos medios entre fallas tanto bajos como altos, dependiendo del tiempo medio de reparación, por lo que usualmente por si sola la disponibilidad no resulta un factor suficiente de evaluación; siempre importara además conocer el TMEF. Para analizar la disponibilidad en el corto plazo, bastaría considerar un conjunto de realizaciones, es decir, el historial para varios equipos de la secuencia funcionamiento-caída partiendo del estado de funcionamiento, si este fuera el estado inicial, o del estado de caída, si fuera este el estado inicial a partir del cual interesa conocer la disponibilidad.

(57)

(58)

(59)

(60)

Fig.12

Page 126: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

118

118

Metas de Fiabilidad aplicadas al diseño

El desarrollo del producto debe considerar las metas de fiabilidad, basándose en consideraciones sobre el sistema, es decir, expresándolas en términos orientados al uso, contemplando las condiciones de uso y el tiempo durante el cual se requiere un desempeño satisfactorio. En una relación contractual, las exigencias se volcaran en cláusulas, referidas a: • Objetivos, o requerimientos de desempeño expresados normalmente por ejemplo en

términos de disponibilidad y tiempo de caída • El criterio bajo el cual se considera que el producto deja de funcionar satisfactoriamente • Condiciones de uso y de mantenimiento bajo las cuales se deben asegurar las metas • Tiempo de vida del producto durante el cual deben asegurarse las metas • Medios requeridos para asegurar las metas • Penalizaciones por incumplimientos

La dificultad surge cuando no existen cláusulas de fiabilidad, o de existir, si estas son

de tipo cualitativo, basadas en satisfacer prácticas de ingeniería y métodos de trabajo establecidos y aplicados por décadas. Las dos formas de especificar metas de un modo cuantitativo son especificando la fiabilidad al cabo de un cierto tiempo, R(T), o por medio del tiempo medio entre fallas, TMEF. Por considerarlo más representativo, el tiempo puede ser reemplazado por distancia, forma esta usada por algunos fabricantes de automóviles para las partes montadas sobre vehículos, donde se especifican los kilómetros rodados en vez del tiempo, siendo usual por ejemplo fijar 100000 km. En otros casos serán ciclos, y en general cualquier otro parámetro ligado al uso.

Otras formas posibles de especificación son:

1. el producto debe operar satisfactoriamente durante X horas el Y% de las ocasiones en que es requerido

2. el equipo no debe fallar mas de X veces en Y horas de funcionamiento, con un nivel de confianza del Z%

3. los reclamos por falla al año no deben superar al X% de la producción 4. el tiempo de vida medio de una población de elementos similares debe ser igual o

mayor a Y horas, con un desvío estándar de S horas

Cuando el diseño debe ser llevado teniendo en cuenta una meta de fiabilidad, si esta no esta establecida en forma cuantitativa, habrá que determinar la forma de establecerla, pudiendo resultar de alguno de los siguientes criterios:

• Por competitividad, tratando de no quedar mal situados frente a la competencia • Por liderazgo, tratando de estar por encima de la competencia • Por costo de garantía, tratando de encontrar el mejor balance entre los costos de

fabricación y los costos de la garantía, vinculados estos a la fiabilidad al cabo del tiempo de garantía.

• Por costo dentro del ciclo de vida, en cuyo caso se busca optimizar el costo total, en el que se incluyen además del costo de compra, el de instalación, el costo operativo, el costo de mantenimiento y el de la disposición final del equipo.

• Por las penalizaciones por tiempos de caída, lo cual puede surgir de contratos contractuales ( entre privados ) o por regulaciones que rigen el servicio ( caso de servicios de carácter público )

• Por duración de la misión, como puede ser el caso de equipos en los cuales hay un tiempo máximo de operación durante el cual se requiere un valor dado de fiabilidad; este es el caso de equipos para aviones, marcapasos implantables, equipos para satélites, y en general equipos con usos limitados a tiempos predeterminados.

Page 127: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

119

119

• Por afectación del servicio, bien sea por los daños que pudieran causarse o por el lucro cesante, como puede ser el caso de un equipo que atiende una línea de producción. Es importante en algunos procesos industriales que requieren tiempos de estabilización muy grandes, pudiendo en algunos casos llegar hasta 7 o más días, por lo que su interrupción provoca grandes perdidas

La determinación puede ser más o menos compleja dependiendo del criterio. Si se trata de posicionarse en relación a la competencia, debiera determinarse la fiabilidad de los equipos competidores, recurriendo para ello a formas indirectas de estimación, o bien por indagación directa, si el mercado se concentra en muy pocos compradores.

Si el caso fuera evaluar en función del tiempo de garantía TG, en tal caso, a partir de la probabilidad de que el equipo deba ser atendido dentro del tiempo de garantía, dada por (1-R(TG)), se deberá calcular el costo de garantía en base al costo medio de reparación,

( ))(1* GG TRreparacionmedioCostoC −=

y como el costo de fabricación, CF, es a su vez función de R(TG), resulta como costo total ( ) ( ))()( GGGFtotal TRCTRCC +=

Es claro que con el aumento de R(TG) aumentara el costo de fabricación y disminuirá el costo de garantía, y recíprocamente, por lo cual cabe esperar que exista una condición optima de diseño para R(TG) que minimice el costo total. Esta condición puede ser establecida en función de TG/TMEF. Si por ejemplo la distribución de fallas respondiera a una ley exponencial, sería

TMEFT

G

G

eTR−

=)( de modo que el costo total resulta función de TG/TMEF. En las expresiones anteriores se supuso un equipo que esta sujeto a funcionamiento continuo, y en tal caso el tiempo de garantía y el tiempo calendario serán coincidentes. Como usualmente la garantía se basa en el tiempo calendario, para equipos de uso discontinuado deberá tenerse en cuenta:

• La tasa de fallas en funcionamiento, λo • La tasa de fallas en estado de reposo, λs • La probabilidad de falla con cada ciclo de solicitación, p , por ejemplo debidos a

ciclos de conexión-desconexión

Si el ciclo de trabajo es c, y el número de conexiones-desconexiones diarias fuese d, entonces al cabo de HG horas de garantía, se tendrán

dH

n G .24

=

solicitaciones, dando una tasa de fallas equivalente

npcc so +−+= λλλ ).1(. de la cual se deduce la probabilidad de falla al cabo del tiempo HG de garantía,

GHG eHF λ−−= 1)(

Cuando existan requerimientos de fiabilidad, las condiciones bajo las cuales se hace la comprobación deben estar claramente especificadas. Es importante también considerar las consecuencias que resultan de una fiabilidad inferior del equipo desde los puntos de vista del servicio, la seguridad y el económico; y esto debiera balancearse con los costos de los ensayos, el tiempo requerido para el ensayo, y la posibilidad de asegurar la fiabilidad por otros medios que no sea a partir de ensayos, usando técnicas predictivas. Otro punto importante es como asegurar que las muestras sobre las que se van a realizar los ensayos sean representativas.

(61)

(62)

(63)

(64)

(65)

(66)

Page 128: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

120

120

Predicción de la fiabilidad

Para predecir la fiabilidad de un sistema es necesario conocer la tasa de falla de los equipos, y como estos se combinan. A nivel de equipos se necesita conocer la tasa de falla de los componentes. Y a nivel de componentes serán datos suministrados por el fabricante de componentes, o información que debe ser relevada experimentalmente, o que es obtenible de datos disponibles de usos similares. Obviamente, si no se cuenta con esa información, tan solo es posible hacer una aproximación genérica, pero igualmente útil como referencia, porque sirve para mostrar los puntos débiles del sistema

El diseño difícilmente pueda llevarse de un modo directo en función de metas de fiabilidad. Normalmente se hará el diseño de cada elemento con una carga cercana a la nominal, y luego se estimara la fiabilidad del equipo o sistema en base a esas cargas. La fiabilidad será función de la manera en que la falla de cada componente incide en el funcionamiento del equipo del cual forma parte. Como la falla de cada elemento depende solo de la carga a la que está sometido, las fallas de los distintos elementos deben considerarse como eventos independientes, si solo se consideran las fallas primarias.

Para efectuar la predicción hay diversos métodos; la aplicación de un método u otro dependerá del tipo de falla, la ley de distribución de las fallas, la forma en que la parte se integra y afecta al sistema, la finalidad del análisis y la simplicidad del método. Básicamente se usara:

• Modelo físico de fallas : Para el diseño de pruebas experimentales • Método de redes: para estimar la fiabilidad de equipos, sin elementos redundantes • Simulación de Monte Carlo: cuando los elementos tienen dos modos de falla, por

apertura y corto, y ambos tienen consecuencias distintas. También se usa cuando las fallas siguen leyes complejas, o los elementos tienen una asociación compleja

• Árbol de fallas: cuando importa conocer solo ciertas fallas, atendiendo sus consecuencias; específicamente cuando se deben realizar estimaciones de seguridad

• Cadenas de Markov: cuando se trata de sistemas redundantes • Método de las cargas ( HDBK217): Cuando se quieren hacer comparaciones

Modelo físico de fallas Con los modelos físicos de fallas se busca contar con una predicción de fallas basándose en consideraciones sobre la distribución de las propiedades físicas de los elementos y modelos de repartición de las cargas. Asumiendo para la carga y la resistencia un comportamiento probabilístico, la fiabilidad puede estimarse en base a la yuxtaposición de ambas distribuciones: la de capacidad o resistencia de los elementos y la de distribución de las cargas, figura 13.

cargaresistencia

f(X)

X

fallas

C R

σ R σ C

f C (c )

f r(r )

El diseño se ha basado por años en estos análisis, definiendo coeficientes o factores de seguridad apropiados, los cuales simplemente relacionan las medias de ambas distribuciones,

CRseguridaddefactor =

cuyos valores se asignan con márgenes de seguridad que toman en cuenta el peso de la variabilidad sobre los valores medios,

margen de seguridad = ( ) 2/122

CR

CRσσ +

Fig.13

(67)

(68)

Page 129: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

121

121

λ1R1 (t)

λ2

R2(t)

Debido a que la fiabilidad depende de la superposición de las colas de ambas distribuciones, este es también denominado análisis de interferencia. Este análisis supone que la falla sobreviene cuando el esfuerzo al que esta sometido el dispositivo supera su capacidad para resistirlo. Este es un planteo estático, e independiente del tiempo si la resistencia y la carga no varían con el tiempo, pero aplicable al caso en el que las cargas son de tipo aleatorio, o periódico, y en todos los casos en los que se produzcan fallas por fatiga. Método de las redes En el método de las redes cada componente es asociado a un bloque de fiabilidad, el cual se vincula con otros bloques según el modo en que su falla incida en la falla del sistema. Dos son las formas básicas de asociación: la serie y el modo paralelo. Dos bloques se disponen en serie, figura 14, si la falla de cualquiera de ellos implica la falla del sistema, estando cada elemento de la red caracterizado por su fiabilidad o por su tasa de fallas. Considerando solo las fallas primarias, la falla de cada componente es un evento independiente de los demás, por lo cual la probabilidad de funcionamiento del conjunto estará dada por

)().()( 21 tRtRtR = La red de fiabilidad serie es la mas común en equipos. En tal caso, si los n componentes que integran el equipo responden a una ley de distribución exponencial, la fiabilidad resultante estará dada por

tt

ttt equi

n

n eeeeetR ..

... 121 ..........)( λλ

λλλ −−

−−− =∑

== que determina una distribución de fallas para el equipo también de tipo exponencial, con una tasa de fallas dada por,

∑=n

iequ1

λλ

y un tiempo medio entre fallas

equ

TMEFλ

1=

Conclusión inmediata de (70) es que todo aumento en la cantidad de elementos del sistema reduce la fiabilidad. En este sentido, el empleo de un mayor nivel de integración favorece siempre la fiabilidad; por el contrario, con el agregado de más elementos se empeora. Este seria el caso por ejemplo de poner dos resistencias en paralelo en vez de una, suponiendo en ambos casos el mismo nivel de carga, es decir, igual temperatura de trabajo. Cuando en un sistema formado por n elementos se requiere que fallen todos para que se produzca la falla del sistema, se habla de una red paralelo: De otro modo, basta que uno funcione para que el sistema funcione, figura 15. Una red paralela conforma un sistema redundante. En este caso, dado que para que se produzca la falla es necesario que fallen todos, la probabilidad de falla del conjunto estará dada por )(.).........().()( 21 tFtFtFtF n= o sea ( )( ) ( ))(1........)(1.)(1)(1)( 21 tRtRtRtFtR n−−−=−= Se debe destacar que la forma física en que están asociados los componentes no determina su forma de asociación en la red de fiabilidad. Vale decir, dos componentes pueden

Fig.14

(69)

(70)

(71)

(72)

(73)

(74)

R 1 ( t)

R n ( t )

R 2 ( t )

Fig.15

Page 130: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

122

122

D1 D2i

e

t

tFXi(t)

ν=FXi(t)

X1

X3

X2

estar eléctricamente en serie, pero formar bloques paralelos de fiabilidad. Pongamos por caso el circuito de la figura 16a, con dos diodos en serie, D1 y D2. Considerando una curva característica idealizada, figura 16b, es claro que si la falla fuese por cortocircuito, la falla de uno solo de ellos no implicara la falla del circuito, solo implicara un aumento en la carga del restante cuando este sujeto a tensión inversa; el resultado es distinto si la falla es por apertura. Las fallas de los componentes no se dan siempre del mismo modo; para cada componente una proporción de sus fallas será por cortocircuito, y el resto por apertura. Obviamente, la probabilidad de falla por corto y apertura se vinculan con sus tasas de fallas,

ap

cc

ap

cc

fap

fcc

tt

PP

λλ

λλ

=∆∆

=..

debiendo ser 1=+ fapfcc PP

La proporción con que se producen ambos tipos de falla es propia del componente y del mecanismo de falla. Al darse los dos modos de falla, las redes pueden resultar bastante complejas, y en tal caso para su solución deberá recurrirse a técnicas especiales de reducción o emplear otros métodos de análisis, como ser simulación de Monte Carlo.

Simulación de Monte Carlo

La simulación de Monte Carlo es una herramienta muy general y poderosa, que requiere, para su aplicación, contar con la función de distribución de cada uno de las variables probabilísticas que participan del proceso. Es decir, si tenemos un conjunto de componentes X1, X2, ...., Xi, es necesario conocer la función de distribución de fallas de los mismos.

Suponiendo conocidas las distribuciones, figura 17a, se determinan los tiempos tfi de falla de cada componente Xi mediante una simulación del proceso. Cada tiempo de falla se obtiene entrando con un número aleatorio como argumento en la función de distribución inversa, figura 17b. Conocidos los tiempos de falla de cada componente, se halla la fiabilidad del equipo para esa realización en base a la configuración de la red de fiabilidad. Contando con una cantidad elevada de realizaciones se puede caracterizar estadísticamente el proceso.

Supongamos un sistema formado por los componentes [X1, X2, X3], figura 18, y

que los tiempos para la falla de una realización simulada sean [ 7347, 3726, 707]. Para hallar el tiempo para la falla se exploran los tiempos de menor a mayor, buscando el menor valor de tiempo para el cual el sistema entra en falla En esta realización, la primera falla se produce en el elemento X3 a las 707 horas, pero como este elemento esta en paralelo con el X2, su falla no provoca la falla del sistema. Ahora, al producirse la siguiente falla a las 3726 horas y estando fallado el componente X3, el análisis del sistema muestra que el mismo entra en falla.

Fig.18

(75)

(76)

Fig.16

a)

b)

Fig.17 a) b)

Page 131: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

123

123

R1 R4

R3R2 R5

A B R1=R2=R3=R4=R5=1MΩ

Ω≤≤Ω MRM AB 8,11

R1 R2 R3 R4 R5

cc ap cc ap cc2642 3383 4609 102 4107

Repitiendo esto para otras realizaciones, resultan los tiempos para la falla respectivos. Con estos valores se puede determinar la función de densidad de fallas, u obtener la función de distribución de fallas a la que responde el sistema, o su complemento, la fiabilidad. También resulta el tiempo medio para la falla del sistema, como promedio de los valores de falla determinados para las sucesivas realizaciones.

Una de las mayores ventajas de la simulación de Monte Carlo es que permite tratar en forma simple redes de fiabilidad muy complejas, especialmente si las fallas pueden ocurrir tanto por cortocircuito como por apertura, como seria el caso del arreglo de resistencias de la figura 19. Este análisis supone siempre que es conocida la curva de distribución de fallas de cada componente para cada modo de falla. En este caso, para cada elemento se deberá hallar el modo y el tiempo para la falla en cada modo. Para ello se generan dos números aleatorios, y luego, en base a las curvas de distribución de cada elemento, se obtienen los tiempos de falla por cortocircuito y apertura. De hecho, solo el que más tempranamente ocurra puede darse.

Otra forma seria hacer una primera simulación para determinar cual de los dos tipos de falla se va a dar, dado que cada uno de los modos tiene una probabilidad de ocurrencia, y luego trabajar con la curva de distribución correspondiente según el tipo de falle que resulte. La probabilidad conque se da cada evento (falla por apertura o por cortocircuito) están relacionadas con las tasas de fallas. Supongamos que en el 70% de los casos la falla sea por apertura, y en el 30% por cortocircuito. En este caso, si el primer número aleatorio generado esta entre 0 y 0.7 la falla será por apertura; caso contrario, será por cortocircuito. Supongamos que para una realización se haya obtenido el modo de falla y el tiempo para la falla de cada uno de los componentes, y supongamos que los valores obtenidos por simulación para una realización sean los indicados en la tabla de la figura 19. Por análisis, se ve que ocurrida la falla más temprana de R4 por apertura a las 102 horas la red sigue cumpliendo con la especificación. Ahora, estando el resistor R4 abierto, al producirse la falla siguiente por cortocircuito de R1 a las 2642 horas, tampoco la red de resistencias entra en falla. Esta se produce recién cuando falla por apertura el elemento R2, a las 3383 horas. Si esto se repite para otras realizaciones, se puede hallar el TMEF como promedio del conjunto de esos tiempos de falla.

Método del árbol de fallas (FTA)

El método del árbol de fallas es una herramienta proactiva usada desde las fases más tempranas del diseño con la finalidad de descubrir los puntos débiles del sistema frente a modos de falla definidos. Es decir, no todas las fallas tienen el mismo significado, y deben ser tratadas del mismo modo. En particular, cuando la falla puede ser fuente de graves daños el diseño debe satisfacer metas de seguridad. La seguridad se define como la probabilidad de que un equipo o sistema provoque daños a personas o pérdidas de bienes, o daño al propio equipo. La US Navy ha definido la inseguridad como la probabilidad de sufrir el efecto destructor de las propias armas como consecuencia de alguna circunstancia que pueda ocurrir previo a su utilización, o al arribo sobre el objetivo.

Cuando los sistemas o equipos están sujetos a exigencias de seguridad, la aparición de una falla puede dar lugar a alguna de las siguientes consecuencias:

• Menores, cuando la falla implica una degradación menor del sistema, o se ve disminuida su capacidad para seguir cumpliendo la función en el futuro.

Fig.19

Page 132: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

124

124

Estado defalla

E

E1

E1.3

E1.3.1 E1.3.2

R=.999

R=.999

R=.999

R=.999

R=.999

R=.999

R=.999

R=.999

R=.999

estado seguro estado inseguro

Equipo en falla

Estado inicial

• Significativas, si hay perdida de funcionalidad, pero no tiene consecuencia sobre personas o bienes, y no requiere la intervención inmediata para reponer la funcionalidad por que la falla no acarrea peligro.

• Críticas, en las cuales puede haber daños menores, pero susceptible de provocar mayores daños si no se interviene en forma inmediata

• Catastróficas, en las cuales hay daños mayores ( destrucción del sistema, heridos graves o muertes )

El diseño pasa a tener así objetivos diferentes según las consecuencias de la falla. Las

exigencias de seguridad complican el diseño debido a que la fiabilidad y la seguridad pueden entrar en conflicto, dado que la primera busca evitar la falla, y la segunda solo aquellas que pueden provocar consecuencias graves. Esto lleva a diferenciar entre falla segura e insegura. Para mostrar el conflicto, consideremos el caso de una llave destinada a interrumpir un circuito, sujeta a dos tipos de falla: por cortocircuito y por apertura. Supongamos que solo el cierre indebido de la llave desencadena consecuencias catastróficas (falla insegura), y que sea:

P1 = 0.01 la probabilidad de súbito cierre ( falla por corto ) P2 = 0.02 la probabilidad de imposibilidad de cierre ( falla por apertura )

En tal caso la fiabilidad será igual a la probabilidad de que no se produzca ninguna de

las dos fallas, mientras que la seguridad esta dada por la probabilidad de que no se produzca un cierre indebido. Obviamente, dado que ambos eventos de falla son excluyentes, resulta

Fiabilidad = 1- ( P1 + P2 ) = 0.97 Seguridad = 1 - P1 = 0.99

Para aumentar la seguridad, como el evento a evitar es el cierre indebido, podrían disponerse dos llaves en serie, figura 20. Para que ocurra el evento catastrófico, ambas llaves deberían cerrarse prematuramente, mientras que la fiabilidad mide la probabilidad de que el sistema cumpla con su función, para lo cual se requiere que ambas funcionen, o sea,

Seguridad = S = 1 - P12

Fiabilidad = R = ( P1 + P2 )2 y, haciendo los reemplazos resulta S= 0.9999 y R=0.9409. Es decir, una mejora en la seguridad acarrea un empeoramiento de la fiabilidad. Para el caso planteado, la red serie empeora la fiabilidad pero es una redundancia bajo la óptica de la seguridad, y al revés sucede con la red paralelo, por lo cual pareciera imposible satisfacer ambos requerimientos. Sin embargo, esto es posible. Supongamos que se dispone de una sola unidad, y que su fiabilidad para el tiempo que insume una misión, Ru(Tmision), sea de 0.999. Como la seguridad se relaciona con la posibilidad de falla, la seguridad coincidirá con la fiabilidad. Supongamos ahora que se disponen 3 unidades en redundancia paralelo, figura 21.

Fig.22

Confiabilidad = 0.97Seguridad = 0.98

Confiabilidad = 0.9409Seguridad = 0.9999

Fig. 20

(77) (78)

Fig.21

Page 133: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

125

125

i j

ji

λ

λ

ij

Supongamos además que el sistema no permite la reparación cuando esta en operación, cumpliendo la misión, y que además:

• 1 falla : sin consecuencias • 2 fallas : se interrumpe la misión • 3 fallas : sobreviene un accidente

Como la fiabilidad evalúa la probabilidad de cumplir la misión, mientras que la

seguridad evalúa la probabilidad de que no ocurra un accidente, es

Fiabilidad del sistema = ( )2)(11)( misionumision TRTR −−=

Seguridad del sistema = ( )3)(11)( misionumision TRTS −−=

Haciendo reemplazos, se obtiene R(Tmision) = 0.999999 y S(Tmision) = 0.999999999, de modo que se han mejorado ambas características.

El análisis por el método del árbol fallas parte de suponer un evento final, que es una condición de falla determinada, y luego para ese evento se debe determinar las causas que pueden provocarlo. Puede ocurrir así que si se dan los eventos E1, o E2, o E3 ocurre el evento final E, figura 22. A su vez, el evento E1 puede resultar si se dan los eventos E11 y E12, o el evento E13. Pero E13 a su vez puede ser consecuencia de que ocurra E131 o E132. Y así se debe ir desglosando hasta llegar a los elementos para los cuales es posible definir su fiabilidad, o sea, que se conozca su probabilidad de falla. Queda así definida una configuración en árbol, figura 22, basada en bloques lógicos.

Como los valores de probabilidad de falla se suponen muy bajos, a condición de que sean todos eventos independientes, la probabilidad de un evento que responde a un bloque lógico “O” puede ser calculada como la suma de las probabilidades de los eventos que lo provocan; para el bloque lógico “Y” la probabilidad de ocurrencia será el producto de las probabilidades de entrada. El diagrama lógico permite a su vez hacer simplificaciones, tratándolas por Karnaugh, y ello permite apreciar mejor los puntos débiles del sistema.

El método anterior supone conocidas las probabilidades de falla, lo cual es así cuando esta impuesto un tiempo para el cálculo. Si se quiere en cambio determinar la probabilidad de falla en función del tiempo, entonces se debe recurrir a simulación de Monte Carlo. Método de las Cadenas de Harkov

Así como el método de redes es apropiado a nivel de equipo, a nivel de sistemas, donde por lo general hay redundancia, es más apropiado el tratamiento por cadenas de Markov. Un sistema puede tomar un conjunto de estados, cada uno definido por una situación particular de los equipos, y dentro de los cuales evoluciona con tasas conocidas. Supongamos que en un momento dado t el sistema se encuentre en un estado particular i. Desde ese estado, en el intervalo siguiente ∆t, podrá saltar a otro estado cualquiera j con una tasa, λij, desde el cual podrá evolucionar a cualquier otro estado, entre ellos al i, con una tasa λji, en el intervalo de tiempo subsiguiente. Esta evolución ocurre entre todos los estados del sistema, figura 23.

La probabilidad de que en t+∆t el sistema se encuentre en el estado i dependerá de que en el instante t el sistema ya se encuentre en el estado i, y se mantenga en ese estado durante ∆t; o que, encontrándose en t en otro estado cualquiera j salte al i en el intervalo ∆t. Si se

Fig.23

(80)

(79)

Page 134: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

126

126

D1 funcionaD2 funciona

D1 funcionaD2 fallado D2 funciona

D1 fallado

D1 falladoD2 fallado

λ

λ+ λ+

λ1

4

2 3

encuentra en el estado i, la probabilidad de que en el instante t+∆t se mantenga en el estado i, dependerá de la probabilidad de que no cambie de estado durante el intervalo ∆t. La probabilidad de que estando en el estado i en t no cambie de estado durante el intervalo ∆t va a estar dada por la sumatoria de todas las probabilidades de salto a los demás estados, o sea por lo cual, la probabilidad de que se mantenga en el estado i, será igual a la probabilidad de estar en ese estado en t, Pi(t), por la probabilidad de no cambiar de estado en el lapso ∆t, o sea Si en el instante t estuviera en otro estado, podría pasar al estado i en el lapso ∆t. La probabilidad de que estando en un estado distinto al i en el instante t y salte al estado i en t+∆t será igual al producto de la probabilidad de estar en cualquier estado j distinto al i, Pj(t), por la probabilidad de saltar de ese estado j al i durante ∆t, λji.∆t. La sumatoria de todas estas probabilidades será

por lo cual la probabilidad de estar en t+∆t en el estado i resulta dada por ∑∑

≠≠

∆+⎥⎦

⎤⎢⎣

⎡∆−=∆+

ijjij

ijjii ttPttPttPi .).(.1).()( λλ

Operando sobre esta expresión, resulta

∑∑≠≠

∆+∆=∆

−∆+

ijjij

ijjii

ii ttPttPt

tPttP.).(.).(

)()(λλ

que tiene la forma

∑∑≠≠

∆+∆==ij

jijij

jiii

i ttPttPdt

tdPtP .).(.).(

)()(' λλ

Si el sistema tiene n estados, resultaran n ecuaciones diferenciales, cuya solución solo requiere conocer el estado inicial. Este sistema de ecuaciones puede ser resuelto fácilmente aplicando alguna herramienta computacional, como ser las provistas por MatLab. Sistema con carga compartida Supongamos el caso de dos diodos en paralelo, figura 24. En este caso, en su condición normal, estado 1, ambos diodos están activos simultáneamente. Los estados 2 y 3 corresponden a uno de los dos diodos fallados (esto implica dos estados distintos), y el estado 4 se tendrá cuando los dos diodos están fallados.

Si hay simetría (nunca la hay, pero a los efectos del modelo se supondrá) se puede suponer que ambos diodos soportan la misma carga, o sea que tienen idéntica tasa de fallas. Si uno de los diodos falla el otro diodo debe soportar toda la corriente, mientras que si ambos funcionan cada uno soporta la mitad de corriente. En otras palabras, al producirse la falla de un diodo, el diodo que sigue funcionando pasa a tener una tasa de fallas distinta, porque aumenta la carga a la que esta sometido. Al circular más corriente aumenta la caída de tensión, y con más caída de tensión y más corriente aumenta la disipación, y con ello aumenta la temperatura. Si aumenta la temperatura, aumenta la tasa de fallas.

Fig.24

(81)

(82)

(83)

(84)

(85)

(86)

∑≠

∆−ij

ij t.1 λ Probabilidad de no cambiar de estado en ∆t =

⎟⎟⎠

⎞⎜⎜⎝

⎛∆− ∑

≠ ijiji ttP .1).( λ Probabilidad de mantenerse en el estado i en ∆t =

Probabilidad de saltar al estado i = ∑≠

∆ij

jij ttP λ).(

Page 135: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

127

127

y=[-p(1)*la1; p(1)*la1-p(2)*la2; p(1)*la1-p(3)*la2; p(4)*la2+p(3)*la2];

function y=markov(t,p)la1=.001;la2=.003;

LISTADO 1

t=1:1000;po=[0 1 0 0];[t,p]=ode45(@markov2,t,po);r=[p(:,1)+p(:,2)];t1=t*.001;plot(t1,r1)

LISTADO 2

E1 funcionaE2 reservaestado e1

E2 funcionaE1 falladoestado e2

E1 funcionaE2 falladoestado e3

E1 falladoE2 falladoestado e 4

λλ -

λλ

A

B

λ

λ

1

2

3

Veamos la solución por Matlab, partiendo del estado en el cual los dos diodos están funcionando, y también si se parte con uno de ellos en estado de falla. El sistema de ecuaciones esta representado por el listado 1, y el solucionador del sistema por el listado 2, donde se ha supuesto el estado 2 como condición inicial.

La figura 25 muestra la fiabilidad para las dos condiciones iniciales. Se observa que la fiabilidad decae notablemente cuando el sistema parte de los estados 2 o 3.

Sistemas con reserva

En los sistemas con reserva, al producirse la falla del equipo que esta en operación el

sistema debe conmutar a la unidad de reserva; el problema es que esta conmutación no siempre será exitosa. Una primera simplificación es suponer que la conmutación no falla. También puede darse esta otra situación: que la unidad que está como reserva falle aún en estado de reserva. Por lo general podrá suponerse que en estado de reserva la tasa de fallas va a ser más baja, digamos una tasa λ-. Es decir, el nivel de carga que tiene el equipo activo será siempre mucho mayor, aunque esto a veces puede no ser así. Por ejemplo en un ambiente de alta humedad, el dispositivo que está activo genera calor, y por lo tanto puede sufrir menos la humedad ambiente que el elemento que esté inactivo. Una baja disipación, en ese caso, actúa favoreciéndolo.

Supongamos entonces que el sistema se compone de 2 equipos: E1 y E2, y que inicialmente E1 está activo y E2 como reserva, figura 26. Si indicamos por e1, e2, e3, y e4 los distintos estados, entonces la fiabilidad es la probabilidad de no caer en el estado e4. Pero esto no lleva a una ley única; depende del estado en qué se encuentra en t=0. Si en t=0 el sistema está en el estado e3, tendrá más posibilidad de entrar en falla que si se parte del estado e1.

Una simplificación adicional sería suponer que el equipo bajo reserva no sufre carga alguna, entonces el sistema queda reducido en la forma que indica la figura 27.

En este caso, partiendo del estado inicial 1, la fiabilidad puede ser determinada por la probabilidad de no estar en el estado 3, lo cual ocurrirá solo después de producirse dos fallas.

Fig.26 Fig.27

Fig. 25

Page 136: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

128

128

E1 funcionaE2 reservaestado e1

E2 funcionaE1 falladoestado e2

E1 funcionaE2 falladoestado e3

E1 falladoE2 falladoestado e 4

λ -

λλ

(1- p). λ

λp

1 en funcionamiento0 en reparación2 en reserva

1 en funcionamiento1 en reparación1 en reserva

1 en funcionamiento2 en reparación0 en reserva

0 en funcionamiento3 en reparación0 en reserva

λ

λ

λ

µ

µ

µ

Por consecuencia, la fiabilidad estará dada por la suma de las probabilidades de que al cabo del tiempo t no ocurra ninguna falla, Po(t), o solo una, P1(t), vale decir

( ) ( )

( ) ttt

tt

o

etete

etettPtPtR

..1.

.1.0

1

.1..!1..

!0..)()()(

λλλ

λλ

λλ

λλ

−−−

−−

+=+=

+=+=

y dado que el tiempo medio entre fallas esta dada por

dtetdtetdtedttRTMEF ttt ...1...).(0

.

0

.

0

.

0∫∫∫∫∞

−∞

−∞

−∞

+=+== λλλ λλ

λ

y como además dxxedxeexd xxx +=).(

resulta

λλλ211

=+=TMEF

lo cual implica duplicar el tiempo medio entre fallas que se tendría si se usara solo un equipo. Sistema de reserva con falla por conmutación

Como el sistema de reserva se apoya en el sistema de conmutación, el análisis de fiabilidad del sistema debe incluir la probabilidad de que el sistema de conmutación falle. Obviamente, si el sistema de conmutación falla, la fiabilidad quedará impuesta por el equipo que esta en funcionamiento. Es decir, si es p la probabilidad de falla del sistema de conmutación, entonces del estado e1 saltara al estado e4 con una probabilidad igual a p.λ.∆t, o sea con una tasa p.λ; y la probabilidad de salto desde el estado e1 al estado e2 estará dada por (1-p).λ.∆t), o sea con una tasa (1-p).λ , figura 28.

Lo que esto pone en evidencia, es que la clave en un sistema de reserva es que la fiabilidad del sistema de conmutación debe ser muy alta

Sistema con reserva y mantenibilidad

El método de Markov resulta muy apropiado cuando se quiere analizar un sistema con mantenibilidad. Es decir, los equipos cuando caen en falla pasan a mantenimiento, y uno de los que esta en reserva pasa a funcionamiento. Esto para un sistema de tres equipos, uno activo y dos en reserva, dará lugar a los estados indicados en la figura 29.

Cuando interesa solo la fiabilidad, prefijado el estado del cual se parte, únicamente deben ser consideradas las transiciones que aseguren la continuidad del servicio. El análisis de estos sistemas será considerado en el capitulo dedicado a la mantenibilidad de los equipos

Fig.28

(87)

(88)

(89)

(90)

Fig.29

Page 137: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

129

129

Método de las cargas

El método de las cargas, desarrollado por las Fuerzas Armadas Norteamericanas y documentado en la norma HDBK-217, ha sido adoptado casi universalmente por la industria. La única excepción es en alguna medida la industria de las telecomunicaciones, que sigue las normas que emite el grupo de investigación y desarrollo integrado por las empresas del conjunto Bell, la Bell Communications Research Inc (Bellcore ). La Bellcore ha desarrollado una norma competidora aduciendo que la norma militar no se adapta a los equipos de comunicaciones, por reflejar una posición muy pesimista. La norma Bellcore, además de proveer distintos métodos de cálculo, resulta con valores más ajustados al permitir que los resultados de los ensayos de depuración (burn-in) y los ensayos de campo y de laboratorio sean tomados en cuenta en la evaluación. La norma militar contempla solo dos métodos: uno aplicado en la fase temprana del diseño, y otro cuando se conoce la carga a la cual están sujetos los componentes.

Lo común, sin embargo, es que, exceptuado el sector de telecomunicaciones, en la mayoría de las aplicaciones, industriales y de servicios, se exija una estimación de fiabilidad siguiendo la norma militar. La norma militar ha sufrido diversas actualizaciones, indicadas por su letra terminal, siendo la ultima revisión la F-2 de febrero de 1995.

La aplicación de la norma militar presupone que los componentes son de buen origen, es decir, el fabricante posee el dominio tecnológico necesario, y que las fallas ocurren a una tasa constante. Esto último, si bien aceptable para componentes militares que están exentos de fallas infantiles, igualmente es de utilidad aun cuando no se cumpla tal requisito. La norma es siempre útil para hacer evaluaciones comparativas entre dos soluciones, pues en ese caso daría lo mejor que se podría obtener en ambos casos.

La norma militar contempla dos métodos, el mas simple de ellos es el denominado de conteo de partes, el cual se realiza en una fase temprana del proyecto, donde simplemente se toma en cuenta la cantidad de componentes de igual tipo, a los cuales se les aplica una tasa de fallas básica. El método supone que a esta altura del desarrollo solo es conocida la configuración circuital, el tipo y cantidad de componentes.

El otro modelo parte de una tasa de base, λB, que se ve afectada por una serie de factores multiplicadores, cada uno corresponde a un factor de carga, es decir,

cLEQTB πππππλλ ............= . donde

πT es el factor multiplicador que toma en cuenta la temperatura πQ es un factor que toma en cuenta la norma a la que responde el componente ( proceso de depuración al que esta sujeto el componente ) πE es un factor que toma en cuenta el ambiente o entorno de trabajo πL es el factor de aprendizaje; si se trata de una tecnología asentada, si la producción es continua o por lotes, etc πC es un factor de complejidad, que depende del tipo de dispositivo, por ejemplo número de pines de un circuito integrado, bits de una memoria, etc.

Estos factores varían con el tipo de componente y asumen valores extremos cuya relación pueden estar en más de dos órdenes de veces. Además de los factores citados, hay otros que dependen del tipo de componente.

La norma contempla todos los componentes electrónicos, desde soldaduras hasta conectores, memorias, etc., dando para cado uno de ellos la tasa de fallas básica y los factores de carga que permiten hacer la estimación de la tasa de fallas efectiva según sea la carga. Su mayor merito es la simplicidad: Por basarse en un modelo exponencial, y suponiendo que no hay componentes redundantes, la tasa de fallas del equipo será suma de las tasas de falla de los componentes.

(91)

Page 138: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

130

130

Técnicas para la mejora de la fiabilidad La fiabilidad inherente del equipo se puede calcular en base a la tasa de fallas de los

componentes, basándose en la información suministrada por los fabricantes, la obtenida en evaluaciones propias, o bien tomando los valores del manual militar HDBK-217 como representativos.

Supongamos haber realizado dicho cálculo y que los valores se sitúen en el orden de la meta, ¿Sería esto aceptable? Bueno, la fiabilidad final del producto o sistema va a ser consecuencia de muchos factores de fiabilidad, todos independientes entre sí, pero siempre con un factor limitante que es la fiabilidad intrínseca o inherente a los componentes. Es decir, esta sería la mejor fiabilidad esperable, que supone como único factor de falla la inherente a los componentes. Esto supone que no hay errores de diseño, que el equipo no esta sometido a ningún tipo de abuso y es bien mantenido, y que además el proceso de manufactura no ha producido ninguna degradación, y que el software no contiene errores. Esto significa que si se tomara en cuenta únicamente la fiabilidad inherente, se estaría haciendo una estimación optimista. En otras palabras, como todos los otros factores lo que hacen es empeorar la fiabilidad intrínseca, el valor de esta debiera ser algunos ordenes de veces superior a la meta.

Supongamos por ejemplo que para favorecer la ventilación fueron previstos agujeros en la tapa superior del equipo y el usuario obstruye los mismos, tapándolos con otro equipo. En tales condiciones de abuso el equipo va a tener un nivel de carga mayor, provocando fallas más tempranas. Lo mismo ocurrirá si el equipo está pensado para funcionar hasta un nivel de altura sobre el nivel del mar (el nivel de altura está vinculado a la capacidad de refrigeración natural ) y se lo emplea en una altura mayor.

Cuando las condiciones de instalación, mantenimiento o de operación se sabe que influyen sobre la fiabilidad, las mismas deben estar contempladas en la especificación. La alternativa es estipular para el producto las condiciones de la instalación y los procedimientos de mantenimiento y de operación requeridos para alcanzar el grado de fiabilidad que se asegura.

En los equipos profesionales y en equipos militares los procesos de validación del diseño tienden justamente a comprobar que la fiabilidad final del producto, la cual contempla la fiabilidad de diseño y manufactura, es cercana a la meta de fiabilidad impuesta, la cual queda limitada por la fiabilidad intrínseca. Por ello, cuando la predicción de fiabilidad intrínseca es cercana a la meta las varias opciones son:

• Auditoria del diseño, para demostrar que todos los pasos destinados a garantizar la

fiabilidad han sido tomados • Cambiar el esquema de solución. Visto en general: a nivel de equipos significara cambiar

algún circuito, subiendo el nivel de integración, o usando por ejemplo circuitos que debido a su modo operativo originan una menor disipación en los elementos; a nivel de sistema implicara cambiar la concepción del mismo.

• Descarga de elementos. Supongamos que se trate de una resistencia. Cuando el fabricante define un nivel de disipación máximo, supongamos 0.25 vatios, presupone condiciones de entorno y en base a ellas un valor de fiabilidad. La fiabilidad podría ser aumentada usando una resistencia con una capacidad de disipación mucho mayor a la potencia que efectivamente disipa.

• Usar componentes de alta fiabilidad. Algunos fabricantes ofrecen productos con distintos niveles de fiabilidad que responden a distintos programas de prueba en manufactura.

• Incluir redundancia. El nivel de redundancia dependerá de lo que está comprometido. Si la caída del sistema implica una pérdida grande, se deberá encontrar una solución que permita levantarlo rápidamente; sea mediante unidades de reserva o con redundancia activa, como es el caso de un computador personal, una PC. En este caso el elemento más débil y crítico es el disco duro, porque tiene partes móviles, y su falla implica no solo la

Page 139: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

131

131

caída del sistema, sino la pérdida de lo más valioso, que es la información almacenada. Para resolver esto se han concebido los sistemas RAID (redundant array inexpensive disk), un arreglo o conjunto redundante de “discos baratos”.

• Recurrir a la mantenibilidad preventiva, para eliminar las fallas por envejecimiento • Realizar ensayos o procesos de depuración, para eliminar las fallas infantiles cuando el

diseño este basado en nuevas tecnologías, o componentes nuevos, o que resulten de producciones discontinuas o por lotes, que haga presumir la existencia de componentes débiles

• Realizar un proceso de asentamiento para el caso en el que haya elementos con tasa de fallas decreciente con el tiempo

Análisis de fiabilidad La fiabilidad final de un equipo dependerá de los componentes que lo integran, de su

diseño mecánico y eléctrico, de los procesos de fabricación, los métodos de prueba realizados, la calidad de la instalación y la fiabilidad del software. Es decir, los análisis de fiabilidad comprenden dos etapas:

• análisis del diseño • análisis de los resultados de los ensayos

El análisis del diseño, a veces denominado fase A o α es principalmente un análisis del diseño tal como es requerido por la definición de producto. Se consideran además en estos análisis la capacidad que dispone el fabricante para asegurar que los requisitos impuestos puedan ser cumplidos, lo que incluye un análisis de los procesos de fabricación. Los análisis que contemplan las condiciones de uso, denominada fase B o β, tienden a evaluar el producto bajo condiciones reales de explotación. En la fase A se contemplan los siguientes aspectos:

Fiabilidad de componentes. Se hace un estudio de los procedimientos con los cuales el fabricante aprueba sus fuentes de componentes, de las especificaciones de fiabilidad que formula, las comprobaciones de recepción, y las pruebas y métodos que utiliza para la selección de sus componentes. Se juzga además el sistema que el proveedor de componentes practica, y las acciones de seguimiento de las fallas de los componentes y de las acciones correctivas consiguientes. En muchos sectores industriales solo pueden ser usados componentes que han sido previamente aprobados. Adicionalmente, en los equipos profesionales se hacen pruebas de durabilidad a largo plazo ( 2 a 5 años ) con la finalidad de asegurar la estabilidad del componente en condiciones normales de funcionamiento.

Diseño mecánico y eléctrico. Se examina la elección de materiales, los acabados superficiales, identificación y rotulado para la trazabilidad, requisitos sobre componentes y montaje, tipo de construcción mecánica, requisitos sobre procesos, la forma en que se llevan a cabo las modificaciones y reparaciones, la incombustibilidad de los materiales usados, la tolerancia frente a descargas electrostáticas, compatibilidad electromagnética, normas ambientales y de seguridad.

Fabricación. Se lleva a cabo un examen detallado de los procesos de fabricación y de los controles, selección de materiales, su administración y almacenamiento. La finalidad de estos análisis es verificar que los procesos de fabricación son adecuados y concordantes con las exigencias de fiabilidad requeridas.

Calidad de la instalación. Se examinan los métodos y procedimientos recomendados para la instalación, y las fases del programa de puesta en marcha.

Fiabilidad del software. Este análisis tiene por finalidad juzgar la capacidad y eficiencia de las normas y rutinas seguidas durante el desarrollo y la fabricación de todas las partes del producto

Page 140: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

132

132

de software, evaluando la fiabilidad en base a parámetros predeterminados. Se analiza la documentación, los métodos para la verificación y la aprobación, información sobre errores, medidas correctivas, la adecuación a las exigencias de los clientes y criterios de aprobación.

Métodos de prueba. Se evalúan los métodos de prueba que realiza el fabricante para asegurar que el producto cumple con sus especificaciones. Estos análisis se concentran en los métodos de prueba de componentes, de placas de circuito impreso, de software, y las pruebas finales sobre el equipo.

Mantenibilidad. Se determina la capacidad del fabricante para proporcionar servicio técnico para el producto. Se analiza el flujo de reparación, la organización del mantenimiento, los centros de reparación, y los análisis de los datos obtenidos, y los cursos de capacitación y de entrenamiento. Se analizan además los procedimientos seguidos para recibir, estudiar, trazar y contestar informes de fallas tendientes a determinar la causa raíz del problema, y las acciones de corrección si correspondieran. También se evalúan los procedimientos seguidos cuando el equipo se envía a reparación, la existencia de un listado de repuestos recomendados, las demoras en la entrega de repuestos, y la existencia de procedimientos para practicar modificaciones en el hardware o en el software, y cuando estas serán con cargo al cliente.

Validación Completado el diseño e implementado un prototipo, se debe comprobar que la meta

de fiabilidad ha sido lograda, dado que los cálculos predictivos se basan en tres supuestos:

• Componentes de buen origen • Valores de carga correctamente estimados • Producto definido en conformidad con su uso

que difícilmente pueda asegurarse que sean ciertos sin una verificación experimental. El primer supuesto podrá asegurarse para la mayoría de los componentes, con

adecuada selección de proveedores; la excepción, son los componentes dedicados, y las soldaduras. Las soldaduras son inevitables, y constituyen el componente de mayor población, y además su fiabilidad depende del proceso. El segundo factor esta dependiendo de la validez de los modelos usados en el diseño, y de la realización física del equipo.

Saber si las metas han sido logradas dependerá del análisis de los datos disponibles. Estos datos pueden resultar de estimaciones basadas en el conocimiento del proceso físico que provoca la falla, y de datos disponibles de fallas de los elementos que componen el producto, recabados en las fases inicial e intermedia del desarrollo o de los ensayos de fiabilidad sobre partes, o sobre el prototipo, realizados en la etapa final del desarrollo. También pueden basarse en pruebas de campo, o en datos recogidos en el uso efectivo del equipo. Con cuantos más datos se cuente, mayor será el nivel de confianza que podrá asegurarse para los resultados. Uno de los puntos más importantes en estos ensayos es asegurar que las muestras sean representativas.

Los ensayos no deben verse simplemente como un proceso de aceptación o rechazo. Las causas y consecuencias de las fallas observadas durante los ensayos deben ser analizadas en detalle, junto con la posibilidad de realizar tareas curativas. Si bien normalmente se usan ensayos truncados o progresivos, para los cuales se definen de antemano las condiciones de terminación, también es posible ensayar un número dado de unidades sin prefijar de antemano requisito alguno de terminación. La fiabilidad puede ser evaluada en cualquier momento basándose en el tiempo acumulado de ensayo y el número de fallas. Cuando un equipo tenga varios modos de funcionamiento, deberá validarse cada modo. En particular, la fiabilidad se establecerá para cada modo. Por caso, para un centro musical pueden darse los siguientes modos: banda de radio de AM, banda de radio de FM, casetera, y reproductor de CD.

Page 141: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

133

133

para 1+<< ii ttt

para 1+<< ii ttt

Ensayos de fiabilidad

Supongamos que disponemos de n elementos que entran a funcionar en el instante t=0, y que al cabo de los tiempos t1,t2, ...,ti,....tn estos componentes entran en falla, figura 30, donde

nii tttttt <<<<<<< + ........... 1321

entonces, la fiabilidad en el momento ti estará dada por

nintR i

−=)(

y la función de distribución de fallas será

nitF i =)(

En el supuesto de que la tasa de fallas es constante, las horas acumuladas pueden obtenerse del ensayo de muy pocas unidades, debido a que es posible efectuar la reparación de aquellas unidades que entran en falla. Esto es usual a nivel prototipo donde se dispone de muy pocas unidades para ensayo, por lo cual este procedimiento solo alargara el tiempo de evaluación. El proceso es el mismo que si se dispusiera de muchas unidades para ensayo, solo que hay que esperar más tiempo, figura 31. Además, si la tasa de fallas es constante, los equipos pueden ser incorporados al ensayo en cualquier momento; solo importa el tiempo acumulado de horas de funcionamiento.

La expresión (93) es una estimación tal vez pesimista, dado que supone que al cabo del tiempo tn no sobrevive ningún elemento, lo cual sin duda no podría asegurarse si se aumentase la cantidad de elementos bajo prueba. Es decir, es una mala estimación suponer que F(tn)=1, por lo que una mejor estimación de las fallas resulta de suponer que hay un equipo mas que al momento tn todavía no entro en falla, por lo cual

1)(

+=

nitF i

11)(+−+

=n

intR i

Del mismo modo se pueden estimar

)1)((1)()(

)(11

1

+−=

−−

∆∆

−=∆∆

=++

+

ntttttRtR

tR

tFtf

iiii

ii

)1)((1

)()()(

1 intttRtft

ii −+−==

+

λ

y el tiempo medio entre fallas se obtiene a partir de la media de los tiempos para la falla,

∑==n

io n

tTMEFm

1

Estas son estimaciones puntuales. Para una mejor estimación se recurre a estimaciones de intervalo. En este caso, en vez de un valor se determina un intervalo dentro del cual esta el parámetro buscado. Este intervalo será función de los datos relevados y del nivel de confianza. En particular, si se tratara del TMEF, esto implica que se desea saber con una probabilidad dada ( 1-α), que se denomina nivel de confianza, los limites dentro de los cuales esta el TMEF.

t1

t2

t3

tn

ti n

t

ti tj tk

n

t Fig.30 Fig.31

(92)

(93)

(94)

(95) (96)

(97)

(98)

(99)

Page 142: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

134

134

Como este valor medio resulta de la suma de n variables aleatorias, tendrá también carácter aleatorio y responderá a la distribución t de Student. Como las n variables están vinculadas por (99), el número de grados de libertad, o variables independientes, será igual a n-1. Es decir,

nstTMEF n .1,2/ −± α

donde ∑∑ −

−=

−−

=n

in

i

nTMEFnt

nTMEFt

s1

22

1

22

1.

1)(

El tiempo para la falla es un valor preciso solo si los elementos sujetos a prueba son monitoreados en forma continua. Usualmente, para reducir el esfuerzo, la verificación es periódica. El tiempo de monitoreo es entonces un parámetro importante que debe ser establecido al comienzo del ensayo, debiendo ser tan corto como sea posible para no influenciar en los resultados. Para el caso de tasa de fallas constante, debiera ser del orden del 20% del tiempo medio entre fallas. El tiempo de falla de los componentes que fallaron a posteriori del control anterior se asigna suponiendo que la falla ocurrió un instante previo al de monitoreo.

El otro aspecto que debe ser considerado es que en esta evaluación solo se consideran las fallas relevantes. Son no relevantes las fallas secundarias, las fallas debidas al mal uso de los componentes ( fuera de sus limites de carga), por ejemplo debidas a sobrecargas no intencionales provocadas durante el ensayo. Las fallas que pudieran ocurrir debido a causas que han sido remediadas, también deben ser excluidas, todo lo cual implica hacer un análisis de los causales de fallas.

Así como ciertas fallas son excluidas, otros tipos de fallas son decisivas para el rechazo, independientemente de la meta. Esto ocurre cuando las fallas afectan la seguridad.

Como tiempo acumulado de ensayo se excluyen los tiempos de asentamiento, si los hubiera, y los destinados a la decantación de las fallas infantiles, los cuales pueden integrar la fase final del proceso de fabricación. Los equipos sometidos a ensayos de fiabilidad se suponen muestras representativas, y que por tanto no pueden estar sujetas ni antes ni durante el ensayo a ninguna acción de acondicionamiento, salvo las reparaciones normales previstas para el equipo y necesarias para poder continuar el ensayo.

Como resultado de las pruebas experimentales se trata de ver si la ley de fallas puede ser descripta por una ley analítica, como puede ser la exponencial, u otra distribución. Siempre, salvo que se justifique apropiadamente lo contrario, se parte del supuesto de que la distribución de fallas del equipo es de tipo exponencial (ver página 159).

Para saber si los datos experimentales se ajustan a una distribución dada se recurre a la prueba de Kolmogorov-Smirnov. Con esta prueba se mide la concordancia entre una distribución acumulativa observada de valores y una función de distribución continua. La ventaja de este método de prueba es que resulta más eficaz que el estimador χ2 cuando se dispone de pocas muestras. Para esta prueba se puede usar la función de Matlab kstest(x,fd,alfa), la cual permite probar que los valores experimentales, vector x, se ajustan a los valores teóricos de la función de distribución, vector fd, con un riesgo predefinido alfa. Ensayos de aceptación. Ensayos progresivos La finalidad de un ensayo de aceptación de fiabilidad es demostrar que el diseño satisface la meta de fiabilidad. Uno de los ensayos mas simples se basa en el proceso binomial para prueba de hipótesis. El objetivo es demostrar que al cabo del tiempo T la fiabilidad es R1. En esta prueba se colocan n unidades a ensayar, y se observa la cantidad de fallas X al cabo del tiempo T, resultado que se compara con la probabilidad de que siendo cierto ese valor de fiabilidad se produzcan esas r fallas. La desventaja de este método es que se podría haber

(100)

(101)

Page 143: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

135

135

tomado una decisión con menor tiempo de ensayo, y además, para igual tiempo calendario, con un menor volumen de ensayo.

Si el ensayo es realizado sobre la base de alcanzar un número de fallas dado, es necesario un monitoreo continuo o a intervalos pequeños hasta que se produzcan las r fallas. La ventaja es que los equipos en falla pueden ser reparados y repuestos en funcionamiento, lo cual permite aumentar el volumen de ensayo para un tiempo dado.

En muchos casos es posible abreviar el ensayo recurriendo a una compresión de tiempo. Por caso, la vida útil de un automóvil es cercana a los 10 años, pero en ese lapso el tiempo de uso de los distintos dispositivos electrónicos que lo integran en promedio será cercano a las 2000 o 3000 horas. Puede entonces aplicarse una aceleración en el sentido del tiempo calendario. En general esto será aplicable a equipos sujetos a ciclos operativos. Cuando se hace una compresión de tiempo, habrá que considerar la cantidad de estos ciclos operativos, y si los mismos dan lugar a problemas de fatiga. Los ensayos acelerados, por incremento de la carga, raramente son aplicados en los ensayos de fiabilidad destinados a validar.

En general el método desarrollado anteriormente es poco eficiente para ser aplicado en las pruebas de validación de fiabilidad, debido a que lleva a ensayos más largos de lo necesario. Esta condición ocurre cuando las muestras bajo ensayo están muy apartadas de la meta, sea porque están mucho peor, o mucho mejor, que el valor establecido. Para estos casos es mas apropiado el método de ensayo secuencial o progresivo. La única desventaja del método secuencial es la necesidad de monitorear en forma continua o a intervalos pequeños.

La característica del ensayo progresivo es que el número de fallas para llegar a una conclusión no esta predeterminado de antemano, sino que depende de los resultados obtenidos en los momentos de monitoreo. En este tipo de ensayo en cada instante de monitoreo existen tres posibles decisiones:

1. Aceptar la hipótesis de que TMEF es superior a un valor dado 2. Rechazar la hipótesis de que TMEF es superior a un valor dado 3. Continuar con el ensayo hasta cumplir la exigencia de rechazo o aceptación

Cuando se da alguna de las dos primeras condiciones el ensayo se termina; en el caso

de la tercera se debe proseguir hasta llegar a alguna de las dos primeras. La idea es comparar las fallas que resultan del ensayo con el número de fallas r que

debieran resultar si el tiempo medio entre fallas tuviera el valor prefijado m. Estos análisis parten del supuesto de que la tasa de fallas del equipo es constante, por lo cual la ley de fallas es de tipo exponencial1, salvo que un análisis previo justifique el uso de otra distribución.

Bajo el supuesto de una distribución exponencial, las fallas se darán con una cierta tasa λ=1/m, donde m es el tiempo medio entre fallas. En tal caso, la probabilidad de que al cabo del tiempo H ocurran r fallas estará dada por

rmH

mH

remrP ⎟

⎠⎞

⎜⎝⎛=

.!

)/(/

Obviamente, contando con un solo prototipo, de producirse una falla debiera reponerse en funcionamiento el equipo para proseguir con el ensayo.

Indiquemos por P1(r/m1) a la probabilidad de que al cabo del tiempo H se produzcan exactamente r fallas si el tiempo medio entre fallas es m1, y que sea P2(r/m2) la probabilidad de que se produzcan r fallas si el tiempo medio entre fallas fuera m2. El problema puede ahora ser planteado de la siguiente forma: Si al cabo de H horas de ensayo se observan r fallas, se trata de ver cual de las dos alternativas para m es mas plausible. Esta decisión debiera tomar en cuenta que de ser cierta la hipótesis de que m≥m1, entonces, para aceptar tal hipótesis, la probabilidad de ese evento debería ser alta

α−=≥ 1)( 1mmSiPaceptacion

1 véase pagina 159

(103)

(102)

Page 144: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

136

136

y si fuera menor o igual a un valor m2 la probabilidad de aceptar la hipótesis debiera ser baja, β=≤ )( 2mmSiP aceptacion

De otra manera: siendo verdadera la hipótesis de que m≥m1, la probabilidad de que se

rechace debe ser baja α==≥ 2)( 1 PmmSiPrechazo

y debe ser alta la probabilidad de rechazar si esta no fuera verdadera, β−=≤ 1)( 2mmSiPrechazo

La figura 32, basada en (102), muestra como varia la probabilidad de que ocurran exactamente r fallas para distintos tiempos medios entres fallas ( m ), relativos al tiempo de prueba (H)

Supongamos un valor particular de r, tal como r=10. Analizando la relación P1/P2 para

los dos valores de m, m1 y m2, pueden darse tres situaciones, figura 33; buscamos vincular la decisión de aceptar la hipótesis de que m es igual o superior a m1 con dicha relación, P1/P2 .

La observación de la figura 33a nos muestra que P1 es bastante mayor a P2, por lo cual podemos suponer que es más probable que el tiempo medio entre fallas sea m1, y no m2. Esto implica aceptar la hipótesis de que m≥m1. Lo contrario se da en el caso de la figura 33b; mientras que en las figuras 33c y 33d no es posible tomar ninguna decisión. En ambos casos es necesario proseguir el ensayo, hasta caer en una de las situaciones anteriores.

Veamos esto más en detalle. Supongamos por ejemplo que al cabo del tiempo Ho se han producido 10 fallas, resultando para los valores supuestos de m1 y m2 las probabilidades indicadas en la figura 34a. Vemos que en este caso las probabilidades P1 y P2 son muy similares, no permitiendo sacar ninguna conclusión. Al proseguir el ensayo durante H1 horas adicionales se pueden presentar tres escenarios:

(104)

(105)

(106)

Fig.32

Fig.33 a) b) c) d)

Page 145: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

137

137

• Que se haya incrementado el número de fallas, pero se mantenga la indeterminación, figura 34d, quedando en una situación similar a la de la figura 34a

• Que no se haya producido ninguna falla adicional, lo cual, como se ve en la figura 34b, esto conduce a la aceptación de la hipótesis.

• Que haya habido un incremento importante de fallas, figura 34c, lo cual nos lleva al rechazo de la hipótesis

El problema que resta es saber como definir los límites para la toma de decisiones. Esto requiere agregar un criterio adicional. Wald sugirió relacionar las probabilidades P1 y P2 con las probabilidades de aceptación y de rechazo.

Supongamos que se trata de definir el límite de aceptación. Si aplicamos un factor de escala x a la probabilidad P1 de modo que coincida con 1-α,

α−== 1. 1'

1 PxP resulta como factor de escala x

1

1P

x α−=

el cual se aplica al valor P2 con el fin de compararlo con el valor de β. El criterio es aceptar la hipótesis de que m ≥ m1 si se verifica que

β≤2.Px lo cual lleva a definir la probabilidad Pa de aceptación de la hipótesis por la condición

211PPP a ≥

−=

αβ

Esta condición también puede ponerse en la forma

αβ−

≤11

2

PP

siendo convencional denominar B a la relación a cumplir por P2/P1 ( por estar vinculado a β )

(111)

(110)

(107)

(108)

(109)

Fig.34

Aceptar

Rechazar Proseguir a) b)

c) d)

Page 146: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

138

138

αβ−

=1

B

Para clarificar ideas, supongamos que se busca determinar el tiempo mínimo en que podría ser alcanzada la decisión de aceptar y que se fija como factor de discriminación del ensayo

52

1 ==mm

D

y que α=0.1 y β=0.1, de modo que B = 0.111. Es obvio que el menor tiempo de aceptación resultara cuando se cumpla la condición ( 110 ) sin haber ocurrido falla alguna. Ahora bien, para r=0, P2 y Pa pueden expresarse en función de m/H, expresión (102), en la forma

11

/

1

/

11 ..

.!

.)/0(. mHrmH

a eBmH

reBmrPBP −

=⎟⎟⎠

⎞⎜⎜⎝

⎛===

11

/.

1

/.

12222..

!))//(0()/0( mHD

rmHD

em

HDr

eDmmrPmrP −−

=⎟⎟⎠

⎞⎜⎜⎝

⎛=====

Luego, en base a la condición límite impuesta por la expresión (110) resulta el valor de (m/H) que cumple con la condición para la aceptación de la hipótesis para mínimo tiempo de ensayo, 11 *549.0*)/1ln(.

41 mmBH ==

Del mismo modo se puede obtener el menor tiempo en el que se puede aceptar que el tiempo medio entre fallas real es m≥m1 habiendo ocurrido una falla, figura 35,

11 *9519.0*)/ln(.1

1 mmBDD

H =−

=

Para que haya posibilidad de rechazo necesariamente debe haber ocurrido alguna falla de modo prematuro. Esto puede verse por el hecho de que para r=0 es siempre P1>P2, figura 36, lo cual vuelve imposible aplicar el criterio de rechazo para r=0. Por el contrario, para aceptar la hipótesis, impuestos m1 y m2, solo se debe hallar el valor de H que satisface la relación P1/P2 que se corresponde a los niveles de confianza establecidos, figura 36.

Establecer la condición para el rechazo de que m≥m1, sería lo mismo que establecer la

condición de aceptación de que m≤m2. En este caso se aplica el factor de escala sobre P2, de modo que

β−= 1. 2Px resultando un factor de escala

2

1P

x β−=

Luego, se acepta la hipótesis de que m ≤ m2 si se verifica que .. 1 α≤Px

o sea

(112)

(113)

(116)

(114)

(115)

Fig.35 Fig.36

(118)

(119)

(120)

(117)

m1/Hm2/H

P1

P2

Page 147: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

139

139

βα−

≤12

1

PP

o también A

PP

=−

≥αβ1

1

2

Teniendo en cuenta (112) y (122) , la condición para continuar puede expresarse como

AeD

PPB mDHr <=< −− 1/)1(

1

2 .

que puede también ponerse en la forma

)ln(/)1()ln(.)ln( 1 AmDHDrB <−−< y operado queda

11

).1()ln()ln().1(

)ln()ln(

mHD

DAr

mHD

DB

−+<<−+

Cuando se fijan valores para A, B y D esto determina un plan de muestreo, y define en

el plano (r,H/m1) las rectas limites

( ) ⎟⎟⎠

⎞⎜⎜⎝

⎛+=⎟⎟

⎞⎜⎜⎝

⎛−+⎟⎟

⎞⎜⎜⎝

⎛=

11

..1)ln()ln(

mHba

mHD

DBr

( ) ⎟⎟⎠

⎞⎜⎜⎝

⎛+=⎟⎟

⎞⎜⎜⎝

⎛−+⎟⎟

⎞⎜⎜⎝

⎛=

11

..1)ln()ln(

mHbc

mHD

DAr

de las regiones de aceptación, rechazo o continuación.

Cuando para el ensayo se cuenta con un solo equipo, entonces, si cada vez que se produce una falla el equipo es reparado y repuesto nuevamente en funcionamiento, se tendrá un tiempo de funcionamiento acumulado

rtttH +++= ........21 donde ti es el tiempo de funcionamiento desde la reposición i-1 hasta la falla i. Si se tratara de r equipos que son puestos en funcionamiento en forma simultanea, H será el tiempo acumulado de ensayo hasta que se produzca la falla de los r equipos.

La diferencia entre el ensayo progresivo y los ensayos truncados por fallas o por

tiempo, son evidenciadas en las figura 37a y b. De la observación de estas curvas surge que las principales ventajas del ensayo progresivo son:

• La cantidad de fallas para llegar a una decisión es mínimo • El tiempo acumulado del ensayo para llegar a una decisión es mínimo • Hay un tiempo máximo o número de fallas máximo para decidir en uno u otro sentido

(121)

(122)

(123)

(124)

(125)

(126)

(128)

r

H

numero defallas

tiempo acumulado de ensayo

ensayo progresivoensayo truncado

lineas de rechazolineas de aceptacion

Finaliza

cion por f

allas

Finalizacion con cero fallas

ensayo progresivo

ensayo truncado

Finalizacion por tiempo

Tiempo medio entre fallas real

tiem

po e

sper

ado

para

la d

ecis

ion

Fig. 37 a) b)

(127)

Page 148: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

140

140

Fig.39Fig.38

y sus desventajas:

• El número de fallas y el costo del ensayo varían de un modo amplio; esto implica que no puede establecerse de antemano un plan que contemple la asignación de recursos y tiempo de ensayo de un modo definido

• El máximo número de fallas y el tiempo de ensayo pudiera resultar mayor al que requiere un ensayo truncado

Por otro lado, los ensayos truncados tienen como ventajas:

• El tiempo de ensayo es fijo, lo cual permite una mejor asignación de los recursos • El número de fallas queda prefijado al comienzo del ensayo, y en tal caso es posible

determinar el número de equipos requeridos desde el inicio, pudiendo proseguir con el ensayo hasta alcanzar la meta sin necesidad de reparar los equipos que entran en falla

• El tiempo de ensayo es mas corto que el que pudiera resultar en un ensayo progresivo si se esta muy cercano a la meta

y como desventajas:

• En promedio, el tiempo de ensayo es mayor al que resulta con un ensayo progresivo • Equipos muy buenos o muy malos requieren excesivo tiempo de ensayo, si se lo

compara con el requerido por un ensayo progresivo

La norma IEC 605-7 y diversas normas militares contienen gran variedad de planes de ensayos progresivos, desarrollados para distintos valores de α y β, y del factor de discriminación del ensayo

aceptablenoTMEFaceptableTMEF

mmD ==

21

y en las mismas se incluyen las curvas de operación, los criterios de decisión, y la probable duración del ensayo. Las figuras 38 y 39 muestran las curvas correspondientes al plan 4:1, con factor de discriminación D=1.5 y las figuras 40 y 41, corresponden al denominado plan 4:4, con un factor de discriminación D=5.

Se observa que a medida que D es mas bajo, lo cual implica mejor discriminación entre lo aceptable y lo no aceptable, el tiempo de ensayo se ve notablemente aumentado. Por ejemplo, para D=5 el valor esperado del tiempo de ensayo, cuando se esta en la proximidad de la meta, es de E(t)=0.7*m1, mientras que para D=1.5 resulta E(t)=20*m1. Esto muestra que solo se justificará realizar un esfuerzo de ensayo casi 30 veces superior en casos muy especiales. Por otro lado, si se fijara el mismo valor del TMEF no aceptable, el primero resultaría más ventajoso.

(129)

Page 149: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

141

141

Los ensayos de comprobación normalmente se realizan en las etapas tempranas del desarrollo o en preproducciones, con la finalidad de determinar que cambios es necesario introducir en las fases más tempranas del desarrollo. Esto plantea el problema de la representatividad de las muestras usadas para los ensayos. El ideal es que las muestras sean extraídas de una población de modo aleatorio. Esta es una limitación importante en las primeras etapas del desarrollo, donde solo se dispone de unos pocos prototipos.

Otra limitación a tener en cuenta es que los resultados anteriores suponen que la tasa de fallas es constante. Si esta condición no se cumple, será necesario analizar las consecuencias de una tasa de fallas creciente o decreciente con el tiempo. En general, si el tiempo bajo ensayo es menor que el tiempo medio entre fallas verdadero, aquellos equipos que tengan una tasa de fallas decreciente tienen menos probabilidad de pasar la prueba que equipos que exhiben una tasa de fallas constante. Lo contrario pasara con equipos con tasa de fallas creciente. Esto puede llevar a aceptar equipos con una tasa de fallas a largo plazo elevada.

Previo a su realización, en estos ensayos se debe: • Definir el equipo bajo prueba. Esto implica definir claramente que partes del equipo serán

sometidas a prueba, buscando por un lado : o Reducir la magnitud del ensayo, excluyendo de la comprobación aquellos

componentes cuya fiabilidad excede largamente la meta o Omitir los componentes susceptibles de ser cambiados por el usuario, o cuyo estado

inicial no puede ser totalmente definido ( estado de carga de una batería ), o bien por el hecho de que estos componentes dentro del tiempo en el que se quiere estimar la fiabilidad deben ser cambiados ( por estar sujetos a acciones de mantenibilidad )

• Definir la condición de falla. Esto implica definir el valor límite que pueden tomar los parámetros del equipo para considerarlo en estado de falla

• Definir la carga y factor de aceleración. La carga impuesta en los ensayos de laboratorio debe estar relacionada con el comportamiento del equipo en campo, y ello solo es posible si se cuenta con información que permita relacionar ambos. Para equipos sujetos al mismo tipo de uso, y valiéndose de iguales métodos de ensayo, establecer esta relación solo requiere hacer una evaluación.

• Definir el plan de ensayo. Para seleccionar un plan de ensayo se debe: o Determinar el tiempo medio entre fallas mínimo aceptable ( m2). Si m1 es el tiempo

medio para la falla especificado, definir m2 dependerá del factor de discriminación del ensayo D y del factor de aceleración FA.

o Determinar el máximo tiempo disponible para el ensayo. En la etapa de desarrollo, el tiempo y la cantidad de equipos se determinan para conformar el programa de desarrollo, pero siempre es recomendable usar para las pruebas de fiabilidad, como mínimo, 3 unidades.

Fig.40 Fig.41

Page 150: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

142

142

Depuración del diseño y crecimiento de la fiabilidad

A medida que progresa el proyecto, adicionalmente a los FMEAs realizados desde una etapa temprana, se realizan ensayos sobre las distintas partes definidas para el equipo buscando depurar su diseño. Este proceso es esencial y debe ser previo a la fase de validación.

Los ensayos depuradores se centran especialmente en las partes más susceptibles a errores de diseño, evaluando las características funcionales requeridas en la especificación, y haciendo mediciones de consumo, polarizaciones y niveles lógicos correspondientes al estado inicial del circuito, y de otros estados más relevantes, así como una verificación térmica, de interferencias, ruido, sensibilidades, etc.

En estas pruebas, dedicadas a mejora continua de la fiabilidad, se diseñan y siguen procedimientos específicos orientados a la depuración del diseño. En su nivel más primario se harán sobre plaquetas armadas por el propio ingeniero de desarrollo. Opcionalmente, previo a estas pruebas, podrán hacerse verificaciones armando el circuito en plaquetas de prueba, del tipo “bread-boarding”, o recurriendo a un programa de simulación como SPICE. En esta etapa se testean en forma independiente algunas áreas o etapas del circuito, aisladas de otras, y recién después de verificada su funcionalidad y características de interés, se podrá hacer una prueba completa sobre 3 o 4 prototipos. Si no se hicieran, y hubiera muchas fallas debido a errores de diseño, común en los primeros prototipos, se haría muy difícil la tarea de aislar los errores. La prueba por módulos es el mejor modo de simplificar esta tarea. No hacer comprobaciones parciales del diseño solo posterga el momento de aparición del problema, ocasionando mayores costos y perjuicios. Además, lograr un diseño más robusto implica un esfuerzo por única vez.

Con la depuración se busca verificar que los dispositivos son usados correctamente, con cargas bien establecidas, que la manufactura no acarrea sobrecargas ni existen vicios de proceso, ni debidos al modo en que los productos son almacenados, serán instalados, reparados o usados, asegurando al mismo tiempo un software libre de errores. En otras palabras, se busca mejorar la fiabilidad final aumentando la probabilidad de éxito de cada uno de los sucesos,

)().().().()( tRtRtRtRtR smdi= de forma de acercarla a la fiabilidad inherente a los dispositivos.

En la etapa de crecimiento, cuando el equipo bajo ensayo manifiesta una falla, la misma debe investigarse para reconocer si se trata de una falla inherente al dispositivo en falla, y pueda considerarse aleatoria, o es esperable debido a desgaste, o si es por alguna causa externa al mismo. Cuando los ensayos muestran recurrencia de fallas, con aparición de dos o más fallas de un mismo componente, o de un mismo modulo, o en la misma ubicación, o que ocurren en relación a un cambio dado de carga, son todos síntomas de una debilidad del diseño, o indicativos de componentes de baja fiabilidad.

También es necesario investigar la causa de falla de todas las primeras fallas que se producen a posteriori del lanzamiento del producto al mercado. Es decir, estas fallas no pueden ser tratadas como simples acciones de mantenimiento sin antes comprobar que se trata de una falla normal y que cae dentro de lo esperable.

Modelos de crecimiento de la fiabilidad

Los ensayos de fiabilidad tienden a mostrar que el diseño y los procesos de manufactura son adecuados, y que el producto satisface las exigencias de uso. Hasta lograr que el equipo pase los ensayos de aceptabilidad, se realizaran continuas pruebas, investigaciones, y análisis hasta la detección y posterior corrección del problema, ejecutando recurrentemente el ciclo de la figura 42.

(130)

Fig.42

Diseño inicial Ensayo

Análisis de ingeniería

Rediseño

¿Satisface?Si

Page 151: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

143

143

Lanzamientoproducción tiempo

Curva de crecimientode la fiabilidad

Mej

oram

ient

opo

stla

nzam

ient

o

Ensa

yo d

eco

mpo

nent

es

Ensa

yo d

e ci

rcui

tos

Eval

uaci

onpr

epro

totip

os

Eval

uaci

onpr

otot

ipo

Eval

uaci

onpr

epro

ducc

ion

Eval

uaci

on d

ese

rvic

e

Eval

uaci

on d

eca

mpo

Meta de fiabilidad

Los datos obtenidos de los sucesivos ensayos se vuelcan en las curvas de crecimiento. Las curvas de crecimiento sirven para medir no solo el progreso en el decaimiento de la tasa de fallas; sino que también sirven para medir la efectividad de las pruebas, y predecir un tiempo probable en que podrán ser alcanzadas las metas impuestas; y ciertamente saber si en un dado tiempo se puede lograr el objetivo.

Usualmente, estos ensayos se comienzan en una fase temprana del desarrollo, figura 43, y se continúan aun después del lanzamiento de la producción. En sus comienzos las evaluaciones se harán sobre los componentes seleccionados, y los procesos de manufactura implícitos en esa selección.

La idea de graficar los valores de R, m (TMEF ) o λ durante el desarrollo sirve no solo

para cuantificar los progresos, curva a, figura 44, sino también para determinar si es necesario incrementar esfuerzos o prorrogar el lanzamiento, curva b, y es una medida conservadora del crecimiento de la fiabilidad,

n

rnTR −=)(

donde se supone que al momento T, de n elementos o equipos en funcionamiento, se han producido r fallas. Pero, como a lo largo del desarrollo se van eliminando causales de falla, es evidente que la fiabilidad que importa es la fiabilidad instantánea, la que resulta del equipo que se esta probando con las mejoras introducidas.

Uno de los primeros modelos usados para evaluar la mejora del tiempo medio entre fallas o, lo que es equivalente, la tasa de fallas, es el modelo de Duane. Es un modelo empírico muy utilizado durante el desarrollo para la estimación del crecimiento de la fiabilidad. Tiene la ventaja de que puede evaluarse en función del tiempo, contabilizando el tiempo de uno o varios equipos, o basarse en ciclos o bien en eventos para elementos de único uso.

Partiendo de los datos experimentales se puede determinar

aTr

cuya evolución , siguiendo el modelo de mejora de Duane, será del tipo αλ −= aTa .

Linealizando la expresión ( 133 ) resulta

aTa log.loglog αλ −=

En función de los datos de r y Ta que resultan de las pruebas, se hallan los parámetros a y α que mejor ajustan al modelo. Con estos parámetros se puede hacer una estimación del tiempo que demandara alcanzar la meta, después de transcurrido un tiempo de mejoras Ta.

(132)

Fig.43 Fig.44

(134)

(133)

(131)

Fiabilidad

t

a

b

ta

Page 152: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

144

144

T ºC

Fiabilidad de componentes: Datos de los fabricantes Aunque todos los fabricantes realizan esfuerzos para la mejora de la fiabilidad de sus

componentes, son pocos los que proveen información precisa de ayuda para el diseño. Solo en pocos casos se cuenta con análisis y datos disponibles, como los suministrados por caso por Siemens para la selección de capacitores electrolíticos, Siemens Components Report 5/78 y 6/83. El análisis parte del supuesto de que el tiempo para la falla m a una temperatura T se vincula con el tiempo para la falla mo, a una temperatura de referencia To=40ºC, por

TToT

omm−

−= 2

Luego, si RESR es la resistencia de perdidas serie del capacitor,

CtgR ESR .

)(ω

δ=

la potencia disipada en el mismo cuando esta sujeto a la corriente eficaz I, estará dada por

ESRd RIP .2= Esta potencia sobreeleva la temperatura del capacitor en un valor ∆T, valor este que

resulta de alcanzar el equilibrio entre la potencia disipada y la transferida al ambiente, TAhPt ∆= ..

El factor de transferencia h varia entre 0.001 y 0.002 Watt/cm2.ºC, dependiendo del diámetro del capacitor, y el valor del área de transferencia A, la cual se relaciona con las dimensiones del capacitor. Combinando ambas expresiones se halla que

)(

......max δtg

CwTAhR

TAhIESR

∆=

∆=

Normalizando las dimensiones, es posible obtener para cada una de ellas los valores de A y h, de modo que para cada encapsulado queda definida la corriente máxima en relación a la sobreelevación. Esta sobreelevación, por (135), se vincula con el tiempo para la falla, cuando son conocidos C, w y tg(δ). Para simplificar el tratamiento, y obtener un valor de caracterización propio de un tamaño se adoptan valores de referencia ∆Tr, Cr,wr y tgδr, de modo de establecer una corriente máxima de referencia para cada modelo ( encapsulado )

r

rrrr tg

CwTAhI

δ.... ∆

=

de modo que

rrrrr tgtg

CC

TT

II

δδ

ωω

∆∆

=max

es una característica propia de un tipo de componente, figura 45.

Como la aplicación impone el valor de la corriente máxima, el valor de la frecuencia

(ω=2.π.f) y el valor de capacidad requerido, la selección del tipo de capacitor resultara de los valores de la corriente de referencia y la tg δ, que figuran en las hojas de datos del componente.

(135)

(136)

(137)

(138)

(140)

(141)

Fig.45

(139)

Page 153: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

145

145

Probabilidadde ocurrencia

Estados

EspecificaciónDefinición estructura y metricas

Codificación

Definición algoritmos

Depuración

Integración

Validación

Doc

umen

tación

Fiabilidad de software La fiabilidad de software se diferencia de la de hardware en que en software las fallas

son siempre consecuencia de errores, y por tanto un programa en su ejecución funcionara o fallara siempre; en este sentido, no tendría carácter aleatorio. Deviene así solo cuando el camino en el que esta el error es recorrido en forma aleatoria durante la ejecución del programa, y esto ocurrirá para cierta combinación de entradas y estados anteriores.

Bajo el supuesto anterior, se define la fiabilidad de software como la probabilidad de que un programa opere sin fallas durante un tiempo en un entorno dado. El entorno se relaciona con el perfil operativo. Este resulta definido por la característica de distribución de las entradas, o de los estados del sistema, figura 46.

El desarrollo de software sigue el proceso indicado en la figura 47. El primer paso es

definir la especificación. Este documento incluye las exigencias del usuario y las que impone el hardware, es decir, las que resultan de la plataforma que le sirve de base y con la cual debe interactuar. En tanto que la especificación de hard es común que exista en todos los proyectos, una especificación de software completa es menos frecuente. Esto podría explicarse por el hecho de que el conocimiento del hard es necesario para poder realizar el soft, a efectos de que este sepa como manipular el hard; mientras que el soft no tiene otro “cliente” que requiera documentación. Por otro lado, el software cambia con frecuencia, debido a lo fácil que es agregar o sacar funcionalidad con solo variar unas líneas, y esto hace más difícil mantener actualizada la documentación. Este es el punto débil de muchos proyectos, quizás porque el software es lo último que se realiza, y el tiempo que resta para documentar es escaso, quedando en muchos casos tan solo resumida a comentarios a continuación de las líneas de código.

La documentación de software debiera identificar los detalles de diseño necesarios para entender como funciona, y contener:

• Listado de los requerimientos, especificación de ingeniería, definición del hardware • Protocolos de comunicaciones con otro software, dentro del mismo producto y

externos al mismo. Esto incluye los mecanismos de interfase, protocolos de comando y de respuesta, definición de los conflictos o colisiones, y todo lo necesario para el intercambio de información entre las partes

• Una descripción de cómo el diseño es implementado, en su relación con las interfaces, valiéndose de flujogramas, diagramas de estado, seudo codificación, etc.

La tarea que mas esfuerzo demanda es la de depuración, la cual no se resume solo a

eliminar los errores, sino que también debe generar la información que permita estimar la fiabilidad del software. La depuración busca eliminar errores debidos a inadecuada:

• Especificación • Inicialización • Manejo de excepciones ( situaciones anormales ) • Validación de entradas • Lógica, etc

Fig.46 Fig.47

Page 154: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

146

146

ET

LOC (longitud)

diferentesestrcuturas

Los tres primeros puntos son los más importantes. El primero porque es el que condiciona el desarrollo del software; el segundo implica definir el estado del cual debe partir el sistema en su arranque o en cada reinicialización, pero igual criterio debe ser aplicado para cada módulo. El tercero implica que deben estar definidas las acciones para todos los estados del sistema, considerando todas aquellas acciones que sean susceptibles de ocurrir.

La programación para los productos electrónicos es normalmente realizada en C o en lenguaje ensamblador, y esto la diferencia de las programaciones dedicadas a ejecutarse en una PC, donde lo usual es codificar en C++ , Java u otros lenguajes, pero nunca en lenguaje de maquina o ensamblador. La otra diferencia es que en la programación de microcontroladores, la programación es más detallada y menos genérica, es decir, esta muy relacionada con el hard con el cual debe vincularse. Además, importa la velocidad, dado que la operación es de tiempo real. Otra diferencia importante, es que mientras que para los programas que corren en PC se aceptan y se considera normal que existan errores, esto, para el software de los productos electrónicos es en la mayoría de los casos totalmente inaceptable, en especial cuando median razones de seguridad, como podría ser el caso de controladores dedicados al automóvil.

Métricas de complejidad

El objetivo de la depuración es eliminar errores a fin de mejorar la fiabilidad, o lo que es igual, aumentar el tiempo medio para la falla, figura 48. Es obvio que la posibilidad de cometer errores será dependiente de la complejidad del software, de su tamaño y de la estructuración de la solución. Si bien los programas cortos pueden estar libres de errores, en los programas muy largos estos serán inevitables y seguramente la cantidad de errores ET inicial será proporcional a la longitud del programa, medida por líneas de código (LOC), figura 49.

La longitud del programa importa además para evaluar el esfuerzo de desarrollo. Halstead fue el primero en proponer una estimación preliminar del tamaño del programa, basándose en la cantidad de operandos y operadores. Shooman, basándose en las leyes de Zipf, llega a una expresión similar. La primera ley de Zipf establece que la frecuencia de aparición fr de cada una de las t palabras distintas contenidas en un texto escrito en un dado lenguaje, ordenando las t palabras conforme a un rango r según sea su frecuencia, verifica

rcf r =

donde c es una constante. Por la forma en que ha sido definido, r es una variable que se extiende desde 1 a t. Si fr es la frecuencia de aparición de la palabra de rango r, entonces en un texto de n palabras, habrá

rncn r

.=

palabras de rango r. Ahora bien, la función de frecuencia fr deberá cumplir con la propiedad fundamental

de probabilidades

Fig.49

(143)

Eliminación de errores

TMPF

t

(142)

Fig.48

Page 155: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

147

147

Fig.50

EB

D C

F

A H

G

e s t r u c t u r a d o n o e s t r u c t u r a d o

l i n e a s d e l f lu jo g r a m a

∫ =t

r drrf1

1).(

de la cual resulta,

)ln(1

tc =

Otra condición resulta de aceptar que el máximo rango ( rmax = t ) aparece un número de veces dado; aceptando que aparezca solo una vez, de (143) resulta

tnc .1 =

y combinando las dos últimas expresiones surge que )ln(. ttn = que tiene similitud con la expresión sugerida por Halstead, si se considera separadamente la cantidad de operadores n1 y de operandos n2 usados en el desarrollo del programa, )(log.)(log. 222121 nnnnn +=

El valor de LOC dependerá de la estructura, los algoritmos, y el lenguaje. Un lenguaje de mayor nivel permite además de reducir un orden de veces la longitud, obtener una mejor estructuración del programa (mas fácil de entender y seguir), y aumentar la fiabilidad.

Estructuración y modularización

Un programa se vuelve más fiable en la media en que es estructurado y modular. Una solución modular busca que un problema complejo y de difícil tratamiento como conjunto sea resuelto mediante la solución de pequeños problemas, más fácilmente tratables. Un módulo, por definición, es un trozo de programa que tiene una única entrada y una sola salida.

Cuando el programa esta compuesto por una secuencia de instrucciones que se ejecutan una a continuación de otra, de haber un error, siempre fallara en su ejecución. Esto puede no ocurrir si el programa tiene al menos una bifurcación, y solo una de sus ramas contiene el error. En tal caso, la falla dependerá de la probabilidad de pasar por esa rama.

McCabe definió una medida de complejidad, denominada complejidad ciclomática, y la vinculo con la fiabilidad del programa. McCabe supone que un programa es más susceptible al error en los puntos de decisión (una rama de cualquier tipo) que en el medio de una codificación lineal. Es decir, cuantos más lazos haya, mayor será el nivel de complejidad, más difícil será su desarrollo, insumirá más tiempo la depuración, y será también menos fiable y más difícil de mantener.

Por ello, el primer paso será dividir el programa en módulos independientes, buscando que estos no superen un nivel de complejidad. La independencia se obtiene haciendo que cada módulo tenga una sola entrada y una única salida, aunque internamente puede tener estructuras complejas, no secuénciales. La solución es estructurada si el programa, y cada módulo, es combinación de alguna de las estructuras de lazo definidas en la figura 50. Son módulos estructurados el A, C,D,F y G; también lo son el B, el E y el H.

(144)

a) b) Fig.51

(146)

(147)

(148)

(145)

Page 156: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

148

148

(ti,pi)j

i

Disponiendo cada módulo de modo que todos los lazos queden en el mismo semiplano, definido este por una línea que marca la secuencia de tareas a ejecutar, la condición estructurada implica que no haya entrecruzamiento de los distintos lazos. Será así si los lazos están anidados, figura 51a, situación que no se da en la figura 51b.

La complejidad de McCabe resulta de contar la cantidad de regiones formadas por el conjunto de lazos, sumando a las regiones internas, la externa; es decir, para el caso de la figura 51a el índice de complejidad valdría 6. Como criterio de diseño, se recomienda no superar un valor de 10; si se superara, se debería subdividir el módulo en módulos mas simples.

Una mala documentación, programación poco estructurada y falta de modularidad pueden deteriorar la tasa de fallas en procesos posteriores de mantenimiento, y dificultar la depuración, figura 52. Modelos de fiabilidad de software

En su primer corrida el programa tendrá cierta cantidad de errores ET, que referidos a la cantidad de sentencias o instrucciones IT define la tasa inicial de errores,

T

TT I

E=ε

la cual puede oscilar entre el 0.1% y 1%. Conociendo la longitud del programa, es posible por tanto tener una idea aproximada de la cantidad de errores iniciales que contiene.

Cuando se ejecuta el programa, la probabilidad de que encuentre un error dependerá de que la ejecución pase por el camino donde se encuentra el error. Si se piensa en que la ejecución de un programa consiste en moverse dentro de una red de software, en la cual los arcos representan segmentos de ejecución del programa y los nodos estados del programa previos a la ejecución de un segmento, habrá entonces una probabilidad pi de que estando en el estado j sea seleccionado un arco dado i. La ejecución de las sentencias de este arco supone un tiempo ti. Es decir, si se aísla una parte del programa, resultara un grafo como el indicado en la figura 53. Supongamos que en el grupo de sentencias del arco i existiera un error. Entonces la probabilidad de que este se manifieste entre t y t+∆t dependerá de la probabilidad de que habiendo tenido t horas de ejecución correcta, el programa pase por el arco i durante el intervalo ∆t subsiguiente.

A través de sucesivas ejecuciones, en la fase de depuración, se detectan y corrigen los errores iniciales. Los dos principales problemas que plantea la depuración son:

• Definir una estrategia de depuración, de modo de pasar por todos los arcos • Definir el criterio para dar por finalizado el proceso de depuración

Cuando los errores están contenidos en arcos de alta probabilidad de ejecución serán

fácilmente detectados, pero aquellos con baja probabilidad de ejecución serán de mas difícil detección si se ejecuta el programa en condiciones normales. Para poder detectarlos en tiempos razonables será necesario buscar la forma de forzar su frecuencia de ejecución.

La finalización del proceso de depuración puede ocurrir por tres causas:

Fig.52

(149)

Fig.53

mantenimiento

depuración t

Poca documentaciónMal estructuradoPoca modularidad

operacion

operacion

depuración

λ(t )

Page 157: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

149

149

• Se ha alcanzado una meta • La tasa de remoción se hace muy baja, y se requiere mucho esfuerzo (tiempo)

para encontrar una mejora. Esto ocurrirá, cuando ciertas ramas del programa tengan poca probabilidad de ejecutarse.

• El proceso de depuración siembra mas errores que corrige; en vez de aumentar el TMEF, empieza a disminuir o se mantiene constante, pero oscilando alrededor de un valor

Las metas pueden resultar de:

• Asumir la imposibilidad de corregir todos los errores, fijando un tiempo medio entre fallas debido a errores de software. Se recurre por ejemplo del modelo de Showman

• Establecer un máximo número de errores residuales, teniendo como limite último cero errores

Modelo de Shooman

Shooman propone para la fiabilidad un modelo exponencial, con una tasa de fallas proporcional a la tasa residual de errores,

)()( τεετε cTr −= siendo εT la tasa de errores totales, y ε c(τ) la tasa de corrección, o sea la cantidad de errores corregidos al cabo del tiempo τ, Ec(τ),

T

cc I

E )()(

ττε =

de modo que tktkt cTr eeetR ).(.().()( τεετελ −−−− ===

El modelo implica:

Aceptar que el programa quedara siempre con errores residuales ( λ≠0 ) La fiabilidad puede mejorarse con mayor tiempo de depuración ET y k son constantes invariables del modelo, obtenidos de datos experimentales

Supongamos que en n ejecuciones del programa, hubo r fallos y (n-r) ejecuciones exitosas. Si Ti es el tiempo de una ejecución exitosa, y tj el de una ejecución fallida, las horas totales de funcionamiento serán

∑∑=

=

+=r

jj

rn

ii tTH

11

Asumiendo un modelo exponencial, el tiempo medio entre fallas estará dado por,

rHTMEF

ii ==

λ1

Este modelo supone que al final de un tiempo de corrección τ se alcanza un

⎥⎦

⎤⎢⎣

⎡−

=)(.

1

τε cT

T

IEk

TMEF

Contando con dos determinaciones, se pueden calcular los valores de k y ET, que son los parámetros invariables del modelo, en base a

⎥⎦

⎤⎢⎣

⎡−

==

⎥⎦

⎤⎢⎣

⎡−

==

)(

11

)(

11

222

2

111

1

τελ

τελ

cT

T

cT

T

IE

kr

HIE

kr

H

(151)

(154)

(155)

(156)

(157)

(150)

(152)

(153)

Page 158: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

150

150

En estas expresiones, Hi es el tiempo acumulado de ejecución durante el cual han aparecido ri fallas, y se han corregido εc(τi) errores. Estas expresiones permiten obtener una estimación de k y ET,

1

)()(.ˆ

1

2

211

2

−⎥⎦

⎤⎢⎣

−=

λλ

ττλλ

cc

T

EEE

)(ˆ.ˆ

11

τλ

cT

T

EEI

k−

=

Como el modelo supone que k y ET son dos constantes invariables, con sucesivas correcciones ambos parámetros deberían tener poca fluctuación; caso contrario el modelo será invalido. Para determinar el tiempo medio entre fallas, y saber si esta o no en la meta, es necesario conocer, además de los parámetros del modelo, k y ET , la tasa de errores detectados, expresión (151). Como la cantidad de errores corregidos r al cabo de un tiempo τ es una variable aleatoria, para un buen ajuste de los parámetros se requiere recolectar muchas fallas, haciendo sucesivas ejecuciones del programa, para aplicar luego cuadrados mínimos. Es importante asimismo documentar el tipo de error encontrado y la forma de corrección, no limitándose solamente a hacer la corrección. Esto permitirá comprobar si algunos errores no son consecuencia de una posible siembra de errores debido a correcciones previas.

Método de las cero fallas

Admitiendo que el proceso de corrección de errores tiene un decaimiento exponencial, figura 54, se puede prefijar el tiempo de prueba requerido para asegurar un número residual de errores. Es decir, el modelo asume que la cantidad de errores residuales después del tiempo τ de corrección es

ττ b

r aeE −=)(

donde a y b son constantes apropiadas del modelo. Este modelo es útil para determinar el tiempo de depuración prefijada una meta de fiabilidad. Pfleeger, (Software Engineering, Prentice-Hall, 1998) da la siguiente expresión, sin fundamentar,

T

EEEE

E

T

mc

m

m

m

.5.0

ln

5.0ln

⎟⎟⎠

⎞⎜⎜⎝

⎛++

⎟⎟⎠

⎞⎜⎜⎝

⎛+

=∆

para estimar el tiempo necesario de ejecución que permita asegurar que se esta dentro de una meta de errores, Em, en función del tiempo de depuración T insumido en hallar Ec errores, si transcurrido un tiempo ∆T adicional no se encuentra ningún error. En tal caso, se puede asegurar que la cantidad de errores residuales es Em, o están por debajo de dicho valor.

A una expresión similar se puede llegar mediante el siguiente análisis. Es claro que para τ=0 se tendrá el total de errores, ET, por lo que a=ET.

Fig.54 Fig.55

(160)

(161)

(158)

(159)

Er

τ

Ec(τ)

Er(τ)

ET

Em +1

τ1

Ec1

ET

Ec

Em

τ3τ2

Page 159: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

151

151

El método consiste en suponer que al cabo de cada corrección se esta en la meta mas un error. Si en la expresión (160) se toman logaritmos, se obtiene

( ) ττ .)ln()(ln bEE Tr −=

Luego, si al cabo del tiempo τ1 se han detectado y corregido Ec(τ1) errores, y se supone que en ese momento se esta con una cantidad de errores residuales igual a la meta, Em, mas uno, o sea

1)( 1 += mr EE τ y como además debe ser 1)()()( 111 ++=+= mcrcT EEEEE τττ por lo que (162) queda en la forma

( ) ( ) 111 .)1)(ln(1ln)(ln τττ bEEEE mcmr −++=+=

Luego si al cabo del tiempo τ2 se detecta un nuevo error, deberá ser

( ) ( ) 212 .)1)(ln(ln)(ln τττ bEEEE mcmr −++==

De (165) se obtiene

1

1

11)(

ln

τ

τ⎟⎟⎠

⎞⎜⎜⎝

⎛+

++

= m

mc

EEE

b

Combinando (165 ) y (166 ), y teniendo en cuenta (167), se obtiene

1

1

11

12 .

1)(1

ln

1ln

.

11)(

ln

1ln

1ln

τ

τ

ττ

ττ

⎟⎟⎠

⎞⎜⎜⎝

⎛++

+

⎟⎟⎠

⎞⎜⎜⎝

⎛+

=

⎟⎟⎠

⎞⎜⎜⎝

⎛+

++

⎟⎟⎠

⎞⎜⎜⎝

⎛ +

=⎟⎟⎠

⎞⎜⎜⎝

⎛ +

=−

mc

m

m

m

m

mc

m

m

m

m

EEEE

E

EEE

EE

bE

E

Esto implica que si antes de que transcurra un tiempo τ2-τ1, contando a partir de τ2,

se detecta un error, figura 55, entonces no es valida la hipótesis, y es necesario volver a reformularla haciendo el mismo planteo. Por el contrario, si transcurrido ese lapso no se detecta ningún error se puede tomar como valida la hipótesis, y por tanto aceptar que el programa tiene la cantidad de errores residuales establecidas en la meta.

El modelo será valido en tanto sus dos parámetros, a y b, tengan poca fluctuación, lo cual no ocurrirá si se generan mas errores que los que se corrigen. Puede ocurrir también que no se halle ningún nuevo error por más que se aumente el tiempo de ejecución, en cuyo caso se deberá:

• buscar otros caminos de flujo, caminos que no han sido recorridos antes • dar por terminada la depuración si superado un cierto tiempo no se hallan nuevos

errores Si bien el modelo no permite asegurar con certitud que el programa este exento de

errores, si se formula la hipótesis de que el programa tiene al momento τ1 dos errores, el tiempo necesario para detectar uno de ellos será

1

1

12 .

2)(2ln

21ln

τ

τ

ττ

⎟⎟⎠

⎞⎜⎜⎝

⎛+

⎟⎠⎞

⎜⎝⎛

=−

cE

de modo que si transcurrido ese tiempo no se halla ningún error, entonces se puede concluir que el programa o bien esta libre de errores, o a lo sumo tiene uno.

(165)

(166)

(163)

(164)

(167)

(168)

(169)

(162)

Page 160: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Fiabilidad

152

152

a) b) c) d) e) X=0 X=1 X=2 X=3

M1

M2B=X?

Incrementar BEjecutar A

Si

No

Poner B en 0

Fijar X

M1

Métodos para la prueba de software La tarea mas difícil y compleja del desarrollo de un programa es la de depuración,

con la cual se busca:

• detectar errores • corregir errores

Para llevar a cabo esta tarea es necesario definir primero una estrategia de depuración, de modo de detectar el máximo de errores con el menor esfuerzo posible. En ciertos casos será conveniente trabajar en la condición real de operación, usando programas de diagnostico especiales, y en otros bastara con recurrir a emuladores. El mayor problema es que para una prueba consistente, muchos sistemas deben operar en tiempo real, sin que haya alteración alguna en los tiempos.

Un modo de simplificar la tarea es depurando por módulos, en forma independiente, o en forma progresiva: es decir a los probados se van agregando los nuevos módulos a probar. Las pruebas deberían contemplar:

• pasar por todas la sentencias • probar todas las ramas • probar todos los caminos

Para ver la diferencia entre probar las ramas y probar los caminos, consideremos el caso de un programa compuesto de dos módulos iguales, figura 56, y supongamos que la variable X pueda asumir valores comprendidos entre 0 y 3. Para probar todas las ramas seria suficiente probar el caso X=1 en solo uno de los módulos. Esto lleva al camino indicado en la figura 57a. La prueba de todos los caminos del conjunto requiere que sean probados 16 caminos, dado que en cada modulo hay 4 posibles caminos, y cada uno de ellos puede combinarse con cualquiera del otro modulo. En un programa de cierta complejidad esto puede llevar a una cantidad de caminos imposible de verificar.

En una prueba exhaustiva debieran considerarse todas las combinaciones de las entradas (con valores validos e inválidos), considerando todas las secuencias posibles de estas. Como esto es imposible, normalmente se seleccionan algunas entradas al azar, o según algún criterio, por ejemplo las de mayor probabilidad de ocurrencia.

En ciertos casos resulta conveniente agregar sentencias para el control a lo largo del

programa, por ejemplo produciendo mensajes que permitan visualizar valores de interés o estados de registros, los cuales se sabe deben responder a cierto patrón. Como método general es poco eficaz, dado que solo permite saber en que parte del programa se observo por primera vez el error, pero no donde este se genero, lo cual obliga a hacer un rastreo hacia atrás para ver donde difiere lo esperado de lo ejecutado.

Los métodos más eficientes se basan en el análisis de los síntomas. Esto llevará a formular hipótesis de posibles causas, las cuales por medio de pruebas sucesivas se irán descartando hasta descubrir el error.

Fig.56 Fig.57

Page 161: Libro Materia

Mantenibilidad La persona inteligente resuelve los problemas

La sabia los evita EINSTEIN

En la especificación para el diseño del equipo debe estar definido si este debe ser diseñado como reparable o desechable. El equipo se dice diseñado para la reparación si se desarrollan acciones desde su definición de modo que en caso de falla pueda volverse operativo en el menor tiempo y al menor costo. Los equipos son definidos como desechables cuando su reparación resulta antieconómica, o su costo de reposición es bajo o del orden del costo de reparación, o bien cuando es muy baja la probabilidad de éxito en la reparación.

La función de mantenibilidad en el diseño se ocupa de definir todos los aspectos relacionados con la mantenibilidad de los equipos. Como la falla de los distintos elementos tiene carácter aleatorio, los tiempos insumidos en la reparación tendrán el mismo carácter, y deberán ser evaluados en forma probabilística. Es por ello que la mantenibilidad se define como la probabilidad de que un equipo que entro en falla pueda ser reparado en un tiempo dado, contando con recursos y procedimientos definidos. Esto último se relaciona con:

1. capacitación del personal 2. disponibilidad de repuestos 3. instrumental y bancos de prueba 4. documentación (manual de servicio).

La mantenibilidad de un equipo es una característica que queda definida en el diseño, y depende de factores tales como la tasa de falla de los elementos, tipos de falla a los que están sujetos, la serviciabilidad, accesibilidad, diagnosticabilidad y soportabilidad y de ayudas para el mantenimiento. Estas ayudas pueden ir desde algo tan complejo como la incorporación de sistemas de autodiagnóstico e inclusive capacidad de autoreparación, hasta algo tan simple como ceñirse al estudio de facilidades o formas de montaje que permitan una rápida detección y remoción de las partes en falla, especialmente de aquellas con alta frecuencia de falla.

Para evaluar la mantenibilidad usualmente se considera la condición más favorable, lo que supone que se cuenta con todos los medios y capacitación suficiente, y por lo tanto solo entran en consideración los aspectos propios del equipo, englobados en lo que se conoce como su serviciabilidad. Con esta expresión se intenta medir la facilidad con que el equipo ha sido pensado para su reparación.

El concepto probabilístico que existe en la definición anterior implica que los resultados son solo aplicables a una población de equipos. Podrán aplicarse a un solo equipo considerando para este todo el conjunto de fallas a las que puede estar sujeto en su vida útil. La caracterización estadística permite definir un valor del tiempo esperado ( medio ) de reparación, y del tiempo medio entre intervenciones.

Se debe diferenciar entre mantenibilidad y mantenimiento. La mantenibilidad es una característica del equipo, mientras que el mantenimiento es una actividad desarrollada para reponer en servicio un equipo, lo cual depende del sistema o estructura de mantenimiento.

El estudio de la mantenibilidad sirve para definir acciones que permitan aumentar la fiabilidad y la disponibilidad, determinando las acciones de mantenimiento y procedimientos en la etapa de diseño, facilidades para la serviciabilidad, las prevenciones para que la reparación no lleve a fallas secundarias, y la definición de acciones preventivas que eviten la entrada en falla. Es importante además prever la forma de no degradar la seguridad del equipo, ni durante las tareas de mantenimiento, ni a posteriori. Esto indica que la seguridad, característica que se mide la probabilidad de provocar daños a terceros o al propio equipo, debe

Page 162: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad

154

154

ser analizada no solo durante la operación normal del equipo, sino también en condición de estado de falla o del proceso de mantenimiento. Las acciones de mantenimiento pueden clasificarse en :

• Mantenimiento proactivo: o Preventivo (recurrentes y programadas) :

Por inspección Por recambio Por recalibración y conservación

o Predictivo Por verificación (recurrentes, programables ) Por alarma (recurrentes, no programables )

o Pasivo ( no recurrentes)

Mantenimiento reactivo (Forzosas, no programadas) : Mantenimiento correctivo (recurrente)

o Mantenimiento curativo ( no recurrente )

Es de hacer notar que la mantenibilidad, como disciplina técnica, fue introducida recién en 1954 por las fuerzas armadas de USA.

Mantenimiento proactivo El mantenimiento proactivo se asienta en acciones de prevención o monitoreo, realizadas con el fin de anticiparse a la aparición de las fallas. Estas acciones de mantenimiento buscan minimizar costos y grado de afectación al servicio. Será en función de esto que podrá decidirse su práctica. Si se hace práctica preventiva con recambio, ello disminuirá la tasa de fallas de los componentes afectados según el riesgo admitido, es decir, según se decida el momento del cambio. En caso contrario, estos componentes afectaran en mayor medida el tiempo correctivo, y se tendrá sin duda un mayor tiempo de baja del equipo y mayor afectación del servicio.

Las ventajas de un mantenimiento proactivo son:

• Mejorar la fiabilidad y/o disponibilidad. En otras palabras, la justificación del mantenimiento proactivo es mantener la fiabilidad en todo momento por encima de un cierto valor, o asegurar un valor predeterminado de disponibilidad.

• Evitar los perjuicios de una falla súbita a través del cambio periódico de partes sometidas a desgastes de cualquier tipo, para evitar que el tiempo operativo no se vea afectado. Basta para ello, realizar las tareas de mantenimiento preventivo en los tiempos ociosos del equipo

• Eliminar o reducir el costo de inmovilización de repuestos, dado que estos pueden adquirirse al momento de intervención, descontando las demoras previsibles para su obtención.

Las acciones de mantenimiento proactivo pueden también clasificarse en:

• Activas • Pasivas

Si bien ambas pueden ser definidas durante el desarrollo, las pasivas por lo general

serán recomendaciones a tener en cuenta para la instalación u operación, según el ambiente en que deba operar el equipo o sistema. Normalmente, este será el caso cuando el equipo va a funcionar en entornos muy distintos, algunos de ellos muy agresivos. Es decir, estas acciones solo se ejecutaran cuando se verifiquen tales condiciones, lo cual evita que su costo sea trasladado a todos los equipos, aun para aquellos que funcionan en ambientes muy benignos y controlados.

Page 163: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad

155

155

Mantenimiento preventivo

Las tareas de mantenimiento preventivo activo son tareas que se realizan periódicamente sobre los sistemas tendientes a prolongar el tiempo libre de falla. Estas acciones están influenciadas por la etapa de diseño. En este mantenimiento existen varias acciones principales, a saber:

- Reemplazo de elementos que presentan síntomas de desgaste, o aquellos cuya probabilidad de fallas F(t) aumenta luego de transcurrido cierto tiempo. El mantenimiento preventivo activo por reemplazo se aplica generalmente a las actividades vinculadas con elementos mecánicos sujetos a desgaste o fatiga, fundamentalmente si los elementos tienen partes móviles, o sufren ciclos térmicos.

- Conservación. Incluye todas las tareas de mantenimiento programadas para conservar al sistema o producto en una determinada condición, tales como lubricación o engrase de partes móviles, limpieza de filtros antipolvo, limpieza de cabezales magnéticos, reformateado de discos rígidos, para evitar que un gran desalineamiento acumulado impida la lectura de alguna posición, etc.

- Reajuste o recalibración para mantener el equipo dentro de su especificación, previniendo fallas paramétricas

El mantenimiento preventivo por reemplazo se justifica cuando la función de densidad

de fallas f(t) asociada a una parte o elemento del equipo es de tipo normal y de muy poca dispersión; en tal caso, adoptando un riesgo α, en función del mismo resultara un tiempo para el reemplazo de dicho elemento, Tr, figura 1. Por este medio, el recambio previene o se anticipa a la aparición de la falla.

El tiempo para el reemplazo se estima admitiendo un riesgo de que la acción deba ser correctiva, por presentarse la falla anticipadamente al momento previsto para hacer el reemplazo. Este tiempo se definirá según el riesgo admitido, función de los perjuicios que surjan de presentarse la falla imprevistamente, o bien prefijando otro criterio.

Un reemplazo anticipado lleva implícito que se desperdicia capacidad de uso de aquellos componentes que entrarían tardíamente en falla, más allá del tiempo de recambio. Si la dispersión es grande, entonces es mas conveniente monitorear periódicamente algún parámetro X que sirva de indicio, figura 2, aplicándose en tal caso una acción de mantenimiento predictivo.

El reemplazo periódico podrá basarse en el tiempo calendario cuando se trate de equipos sujetos a uso continuo, o cuando el envejecimiento ocurra por el simple transcurso del tiempo ( engrases, lubricaciones, etc ). En caso contrario se debe monitorear alguna variable

Fig.2

Fig.1

comportamiento de un dado equipo

valor limite

t monitoreo t

f(t) X

t

T monitoreo

t monitoreo

t

λ( )t

r

f(t)

tT

α

Page 164: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad

156

156

λ(t)

t

f(t)

t t

λ (t)

ligada al uso ( por ejemplo los km en un automóvil ), o basándose en consideraciones de uso medio, cuando el desgaste es función del tipo de uso.

Si la ley de fallas es exponencial, no hay posibilidad de monitoreo ni tratamiento bajo riesgo, dado que la falla es de aparición aleatoria. En este caso, el mantenimiento preventivo llevaría siempre a un gran desaprovechamiento, figura 3, y desde el punto de vista de la fiabilidad no habría ganancia alguna, mas bien perdida, y además siempre la disponibilidad se vería disminuida.

Si por otra parte el componente tuviera una tasa de fallas decreciente con el tiempo, figura 4, el mantenimiento preventivo seria contraproducente: en vez de aumentar, la fiabilidad disminuiría. En otras palabras, tratándose de un equipo o de un sistema no redundante, para que el mantenimiento preventivo tenga sentido debe darse una tasa de fallas creciente con el tiempo.

Es decir, de las tres posibilidades: tasa de fallas decreciente, tasa de fallas constante y tasa de fallas creciente, tratándose de equipos, solo en este ultimo caso tiene sentido el mantenimiento preventivo.

Esto establece una diferencia entre los equipos electrónicos, cuyos componentes básicamente responden a fallas de tipo aleatorio, con respecto a los mecánicos, en los cuales domina la falla por desgaste. En los equipos electrónicos el mantenimiento preventivo normalmente no solo no aporta ventaja alguna, sino que llevaría a desperdiciar gran parte de la vida útil de los componentes, agregando el costo de la acción preventiva, y además se correría el riesgo de empeorar la fiabilidad debido a sobrecargas accidentales como consecuencia de la intervención, figura 5. Este desmejoramiento de la fiabilidad ocurrirá siempre que exista la probabilidad de que la acción de mantenimiento preventivo sea imperfecta, ocasionando daño en algún elemento del equipo, figura 6. Esto se traduciría en un salto, discontinuidad, en la función de fiabilidad al momento de la intervención. Es decir, se supone que al momento de la intervención el equipo esta en funcionamiento y que podría continuar en ese estado de no intervenirse, mientras que con la intervención existe la posibilidad de provocar su falla.

La duración de las acciones del mantenimiento preventivo, por ser tareas concretas

conocidas, tienen un carácter determinístico, sujetas a mínima fluctuación. Dado que pueden desarrollarse distintas acciones en distintos momentos, pero con frecuencia conocida, es posible hablar también de un valor medio, aunque en este caso no se da el carácter probabilístico, ya que se evalúan acciones programadas con mínima fluctuación de los tiempos.

Fig.3 Fig.4

Fig.5 Fig.6

R(t)

t

Desmejoramientode la fiabilidad

intervenciones

R(t)

t

Desmejoramientode la fiabilidad

intervenciones

Page 165: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad

157

157

Mantenimiento preventivo con recambio

Sea f(t) una función de densidad de fallas, figura 7, que da origen a una tasa de fallas creciente con el tiempo, figura 8. Se trata de hallar la nueva función de densidad de fallas que resulta cuando se practican acciones de mantenimiento preventivo, las cuales se suponen realizadas a intervalos fijos TM.

La acción de mantenimiento preventivo determina una nueva función de densidad de fallas, dado que los componentes solo son susceptibles de fallo dentro del intervalo [0, TM] que sigue a un reemplazo, figura 9a. Entonces, definiendo una función f1(t), figura 9b, con existencia solo en el intervalo en que son usados los componentes,

0)()()(

1

1

==

tftftf

M

M

TtTt

>≤≤0

en base a la misma se puede obtener la nueva función de densidad de fallas, fp(t), para cualquier instante t>TM. Igualmente, la función de fiabilidad obtenida en base a f(t) solo es aplicable en el intervalo de validez de la función de densidad, Ro(t), figura 10b.

Aceptando que solo se consideran fallas las de tipo catastrófico, lo que excluye los cambios preventivos de elementos, el análisis de fiabilidad puede realizarse de dos modos:

• a partir de cada intervención (sea esta preventiva o correctiva), para la que se

supone t=0 y restringiendo dicho cálculo hasta el instante de la primer intervención preventiva, o sea para tiempos t que verifican 0 ≤ t ≤TM.

• a partir de cualquier intervención, o desde la primer puesta en marcha, sin restricción alguna de tiempo, o sea para todo t>0

Fig.7

(1)

Fig.9 a) b)

Fig.10 a) b)

Fig.8

Page 166: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad

158

158

Como después de una intervención, sea correctiva o preventiva, el equipo va a quedar siempre en funcionamiento, parece razonable restringir la estimación de fiabilidad hasta el instante en que debiera realizarse la intervención preventiva subsiguiente. Es decir, dado que cada intervención restituye a nuevo el componente, por tanto, a posteriori de la intervención será siempre y, dentro de cualquier intervalo (kTM, (k +1) TM), calculado a partir de una intervención, la función de densidad de fallas será una replica de la densidad de fallas entre 0 y TM

El segundo caso supone que la intervención preventiva es transparente al usuario, o cuando menos sin consecuencias catastróficas. Se trata, bajo este supuesto, de calcular la fiabilidad para cualquier instante t a partir de la primera puesta en marcha o desde cualquier intervención.

Si R(TM) es la probabilidad de que no falle durante un intervalo cualquiera (0,TM ), evaluado a partir de una intervención, entonces la probabilidad de que siga en funcionamiento en un instante t cualquiera posterior,

t = k.TM + t m para 0 < tm ≤ TM estará dada por la probabilidad de que haya funcionado desde el instante t=0 hasta el instante t= kTM, y que no se produzca un fallo catastrofico en el intervalo k.TM < t ≤ k.TM + t m. Dado que la fiabilidad para el intervalo (0,TM ) es R(TM), entonces, la probabilidad de que no haya fallado en ninguno de los k intervalos previos estará dada por, figura 11,

[ ]kMM TRTkR )().( =

A su vez es

∫−=−=mt

mm dttftFtR0

1 ).(1)(1)(

de modo que [ ] )(.)()()..()()( Mo

kMmMmM kTtRTRtRTkRtkTRtR −==+=

y la función de densidad fp(t) dentro del intervalo (kTM, (k+1) TM), estará dada por [ ] [ ] ).(.)()(.)()()()( 1 M

kM

kMp TktfTR

dttdRTR

dttdR

dttdFtf −=−=−==

Como R(TM) es menor a 1, Rk(TM) será decreciente con k y por tanto la función de densidad tendrá una envuelta exponencial, figura 12. Esto justifica que a pesar de que la tasa de fallas de los elementos sea creciente con el tiempo, si media este tipo de mantenimiento, se pueda aplicar el modelo exponencial. La tasa de fallas dentro de cada intervalo necesariamente debe repetirse, originando una función periódica, figura 13, de modo que si la variación de λ(t) con el tiempo no es grande, se puede asimilar a una tasa de fallas constante. Visto de otra manera: sobre No

(7)

(6)

(5)

R(t)

tTM 2TM 3TM

1

R(T M)

0

R2(TM)R3(TM)

(2)

(4)

Fig.11 Fig.12

1)(0lim

=∆+→∆T

M TkTR k = 0,1,2,3,.....n

(3)

Page 167: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad

159

159

Fig.15 Fig.16

Fig.13

Fig.14

equipos, la cantidad de equipos fallados, Nf, durante un lapso de tiempo igual a TM se mantendrá siempre constante, ( ))(1. Mof TRNN −=

Evaluando la tasa de fallas en el intervalo ((k-1)TM,kTM), teniendo en cuenta (4), es

( )( )

M

M

M

MM

Mm T

TRT

TkRkTRTkRt

RR

)(1)1()()1(

11 −=

−−−

−=∆∆

−=λ

Se ve que la consecuencia de esta acción de mantenimiento es convertir una ley de fallas por desgaste ( creciente en el tiempo ) en una ley de fallas de tipo exponencial, por su aproximación a una tasa de fallas constante. La figura 13 muestra la tasa de fallas bajo mantenibilidad preventiva y la tasa de fallas media que resulta de la expresión ( 9 ), y la figura 14 compara la fiabilidad con y sin mantenibilidad preventiva.

La frecuencia conque se deben practicar las intervenciones preventivas se determina en función de metas de:

• máximo riesgo de falla (ó meta de fiabilidad ) • metas de tiempo medio entre fallas • tiempo medio entre mantenimientos • disponibilidad • mínimo costo de mantenimiento

El primer caso es el más simple de analizar. Si f(t) es la función de densidad de fallas, el tiempo para la intervención se definirá para la condición de riesgo impuesta,

)(1).(0

M

T

TRdttfM

−==∫ α

tal como indica la figura 15, y según ello variará la fiabilidad R(TM) , como se indica en la figura 16, y mejora a medida que se reduce TM. Normalmente, el riesgo esta acotado cuando los requerimientos de seguridad son mandatarios.

(8)

(9)

f(t)

t/TMEFc

α

(10)

Page 168: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad

160

160

T t

R(t)

Si la acción de mantenimiento preventivo es transparente al usuario, el efecto resultante del mantenimiento preventivo es una mejora en el tiempo medio entre fallas, TMEFp , el cual resultara dado por

∫∞

=0

).(. dttftTMEFp p

Pero, la mejora del tiempo medio entre fallas catastróficas es a costa de una

disminución del tiempo entre intervenciones preventivas, TM, de modo que si estas no fueran transparentes al uso, su aplicación sería indeseable. Importa por tanto, no solo que las fallas catastróficas sean mínimas, sino que además la frecuencia de intervención preventiva sea compatible con el uso, asegurando mínima interrupción del servicio. Esto es especialmente importante cuando las fallas se extienden sobre un amplio rango de tiempos, como es el caso indicado en la figura 15. Si se evalúa la disponibilidad en función de la relación entre TM y el tiempo medio entre fallas sin mantenibilidad preventiva, TMEFc, se encuentra que hay un valor de TM óptimo, que maximiza la disponibilidad. Este valor, como se aprecia en la figura 17, depende de la relación entre los tiempos medios involucrados en ambas reparaciones, tc/tp; si ambos fueran iguales, la mejor disponibilidad se obtiene en ausencia de mantenimiento preventivo, dado que, en tal caso, la mantenibilidad preventiva no aporta ventaja alguna desde el punto de vista de la disponibilidad.

El tiempo entre intervenciones preventivas también puede ser determinado buscando mínimo costo de mantenimiento durante el tiempo de vida útil del equipo.

Mantenimiento preventivo imperfecto con recambio Si como consecuencia de la intervención preventiva cabe la posibilidad de daño de alguno de los otros componentes, se habla de una intervención imperfecta. Si p es la probabilidad de falla que puede ocasionarse en cada intervención, en tal caso la fiabilidad estará dada por

[ ] )(.)1.()()( kTtRpTRtR kkp −−= para TktkT ).1( +<<

En este caso aparece un compromiso entre la mejora que se produce con cada intervención al reemplazar componentes sujetos a desgaste, y la degradación que resulta de una intervención imperfecta. Esto nos lleva a suponer que existirá un intervalo para la intervención óptima, que dependerá de p y de la ley de variación de la tasa de fallas con el tiempo. La expresión (12 ) indica, justamente, que después de cada intervención se pasa a tener menos fiabilidad que la se tendría si no se hubiera intervenido; solo se mejora la fiabilidad en el largo plazo, dado que a partir de T se tiene una menor pendiente para R(t), figura 18. Con bajos valores de T podría incluso resultar siempre un empeoramiento de la fiabilidad.

(12)

Fig.18

(11)

Fig.17

Page 169: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad

161

161

Tiempo entre calibraciones El valor de los elementos varía con el tiempo, afectando las características del equipo. Una alternativa para mantener las características dentro de límites establecidos es realizar reajustes periódicos. El tiempo entre reajustes dependerá de la variación que sufren los elementos a lo largo del tiempo y del rango de variación admitido. Sea E la especificación a cumplir, función del valor de ciertos componentes circuitales,

),....,( 21 nXXXfE = Si se tratara de un instrumento de medición, E será el error de medición. En tal caso, el tiempo entre calibraciones dependerá de la perdida de capacidad del sistema de medición, y del riesgo admitido de obtener un valor incorrecto. En este caso, el riesgo mide la probabilidad de falla, o pérdida de fiabilidad de la medición; o sea, de que el error sea superior al admitido. Fijada una fiabilidad R(H), en función de la misma se deberá hallar el tiempo H entre calibraciones, figura 19. Para ello, es necesario hallar la distribución de la especificación para distintos valores de tiempo1, figura 20, con la finalidad de determinar el tiempo H para el cual

( )211)( αα +−=HR Tiempo entre acciones de conservación Ciertas acciones de conservación pueden ser totalmente programadas, mientras otras dependerán del tipo de acción, condición de uso del equipo y la agresividad del entorno. Supongamos por ejemplo un filtro antipolvo. Cuando el filtro esta limpio las características del forzador de aire y de la carga determinaran un caudal de aire Q1, figura 21. A medida que se va obstruyendo el filtro, aumenta la carga y provoca que el caudal disminuya hasta un valor Q2, de modo que la acción de limpieza debe ocurrir antes de que el caudal se reduzca al valor Qm, mínimo valor de caudal necesario para que la temperatura no sobrepase un valor limite compatible con la fiabilidad esperada. El tiempo entre las acciones de limpieza estará dependiendo de la agresividad ambiental. Cuando la acción es de realización simple, no requiere mayor capacitación, e involucra poca perdida de tiempo, entonces se podrá programar un tiempo entre acciones tomando un margen amplio frente a la máxima carga posible. En otros casos, puede resultar conveniente recurrir a una acción de mantenimiento predictivo, sensando la temperatura y generando una señal de aviso cuando se ve sobrepasado cierto valor, figura 22. 1 Véase pagina 224

H

R(t)

t

R(H)

Fig.19 Fig.20

(13)

(14)

E

p(E) t=0

t=H

Emin Emax

α1 α2

t

presiontemperatura

Tp

valor limite de alarma

Fig.21 Fig.22

caid

ade

pres

ion,

p

caudalQ1Q2

caracteristicadel forzador caracteristicas

de carga

p∆ filtro limpio

filtro sucio

Qm

Page 170: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad

162

162

Mantenimiento predictivo

El mantenimiento preventivo con reemplazo periódico de partes solo puede basarse en el tiempo calendario cuando se trata de equipos sujetos a uso continuo, o a un uso regular de por ejemplo X horas por día, y los equipos están además siempre sometidos a la misma carga. También, cuando el envejecimiento ocurra por el simple transcurso del tiempo (caso de engrases, lubricaciones, etc). Si este no es el caso, es conveniente monitorear alguna variable ligada al uso ( por ejemplo los Km en un automóvil ), o de una forma menos precisa, basarse en consideraciones de media, en función del modo típico de uso. Pero aun en estos casos, el desgaste puede ser muy diferente según sea la exigencia de carga del elemento, carga que a su vez puede tener carácter aleatorio. La alternativa en este caso es recurrir a una inspección para el control de estado, en base a la cual predecir el momento de la inspección siguiente, o la futura acción de recambio del elemento.

Este tipo de situación se da también cuando el tiempo para la falla tiene una dispersión muy grande, figura 23, y es además posible monitorear alguna característica relacionada con la falla, de modo que la acción de mantenimiento sea consecuencia de una verificación basada en el estado del propio elemento, y no algo que surge solo como consecuencia del transcurso del tiempo.

Cuando el costo de control es bajo frente al costo del recambio, una opción es hacer monitoreos periódicos, con tiempo entre controles basados en el desgaste previo. Otra opción es agregar sensores para monitorear un parámetro del sistema altamente correlacionado con la aparición de la falla, basándose en lo que se denomina análisis de firma. Estos sistemas se fundamentan en el hecho de que en su funcionamiento normal los equipos tienen un diagrama particular de ruido, de vibración, de temperatura, de presión, de irradiación, etc., el cual se altera con el desgaste. Las dos variables mas usadas para este fin se basan en el análisis del comportamiento térmico o en el vibratorio; el primer caso básicamente orientado a componentes eléctricos y el segundo a componentes mecánicos.

El aprovechamiento del análisis térmico para detectar signos de inminente falla se

debe a que la mayoría de los componentes tienden a recalentarse a medida que sus propiedades se deterioran.

Con mantenimiento preventivo los elementos deberían ser cambiados al cabo del tiempo TM, figura 24, mientras que el predictivo permite extender el uso hasta un instante de recambio tr definido por un nivel de alerta, cercano al limite de la capacidad de uso del elemento, y podrá ser algo tan simple como la señalización del contenido de tinta de un cartucho de impresora, o la indicación de estado bajo de una batería, etc. Cuando no sea posible el monitoreo automático permanente, el instante del recambio resultara del análisis de tendencias, en base a registros históricos. A pesar de que el momento de intervención no puede ser programado, es igualmente importante debido a :

• Razones de seguridad ( la falla puede acarrear graves consecuencias ) • Exigencias de una mayor disponibilidad • Razones económicas, para un mejor aprovechamiento de los elementos, o

por el beneficio que aporta una mayor disponibilidad

Fig.23 Fig.24 ttf2tf1

f(t)

x(t)

x1(t) x2(t)

TM tr2tr1

nivel de alarma

nivel de fallaf(t)

t

f(t)T

Page 171: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad

163

163

Mantenimiento pasivo

El mantenimiento preventivo pasivo incluye todas las acciones destinadas a proteger al equipo de su entorno. Es pasivo porque no se interviene sobre el equipo. La finalidad es reducir o evitar sobrecargas mediante la incorporación de protectores frente a transitorios de la alimentación primaria ( red eléctrica ) o para evitar cortocircuitos o sobrecargas. Lo primero haciendo un filtrando en las líneas de entrada al equipo para evitar los efectos de ruidos o sobretensiones de tensión, figura 25, bajo el supuesto de que el propio equipo nos las incluya.

Los transitorios de la fuente de alimentación son especialmente críticos en muchos

casos, y para ellos caben varias acciones:

• acondicionadores de línea, para aislar de un modo activo al equipo de su fuente, figura 26

• disposición de supresores, destinados a absorber sobrepicos, figura 27 • empleo de fuentes ininterrumpidas (UPS) con las cuales se aísla totalmente

al equipo de la línea, y se asegura su alimentación aun frente a una caída transitoria de la tensión de línea

Algunos sistemas disponen de protecciones de forma que una sobrecarga

momentánea no produce la interrupción definitiva del servicio, solo temporaria. Para estas condiciones hay distintos tipos de tratamientos:

• el equipo se protege mientras dura la sobrecarga, restituyéndose la operación tan pronto desaparece esta

• el equipo realiza un número de intentos de reconexión automática en forma periódica, y solo superado cierto numero pasa a condición de falla definitiva.

Otra acción de mantenimiento preventivo pasivo especialmente importante se da para

evitar las consecuencias que resultan del ciclado de encendido-apagado de equipos que manejan mucha disipación y están sujetos a fatiga térmica. El ciclado térmico que resulta de encender y apagar un equipo es en muchos casos el que determina el número de ciclos de fatiga térmica que sufre el equipo. Las tres maneras de solucionar esto son:

• mantener el equipo siempre encendido, o reducir al máximo las conexiones y desconexiones

• mantener el equipo en una condición intermedia que asegure un menor salto de temperatura, manteniéndolo en un estado de preparado o listo para operar

• demorar la activación para producir el calentamiento de un modo suave

Fig.26

Fig.25

linea

Unidadindependiente

Circuito bajoproteccion

ruido e interferencias externas

ruido e interferencias externas

Fig.27

Equipo

µP

Page 172: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad

164

164

Mantenimiento curativo

Sobre la primera serie de equipos que es lanzada al mercado es necesario hacer un seguimiento especial de las primeras fallas que se presentan. Esto implica que, frente a la primera falla de cada componente se debe desencadenar una acción de análisis previo a cualquier acción correctiva, cuyo propósito es determinar si corresponde una acción de mantenimiento normal, requiriéndose tan solo una acción correctiva, o si es necesario introducir acciones curativas. Serán necesarias acciones de tipo curativo cuando:

• las fallas escapan a las predicciones basadas en el modelo ( se concentran en uno o pocos elementos, y ocurren en una cantidad superior a la esperada )

• la falla tiene suficiente relevancia para ser critica, afectando la seguridad • las fallas son consecuencia de error humano, pero susceptibles de ser

evitadas por rediseño • la falla es causada por otros equipos, o condiciones de entorno que escapan

a las especificadas o previstas en el diseño

Las acciones curativas buscan generar cambios en el diseño para evitar la repetición de fallas que responden a las características anteriores.

Cuando existan discrepancias entre las condiciones de campo y los resultados obtenidos en pruebas de laboratorio, será necesario realizar análisis con la finalidad de explicar tales resultados contradictorios, buscando saber si se trata de:

• inadecuada definición del producto • debilidad o defectos en los componentes • errores de diseño • problemas de manufactura

y por otro lado, determinar la relevancia de la falla, de modo que, según sea su gravedad se proceda a:

• retirar el producto del mercado, • hacer un llamado para un pronto cambio, • producir una instrucción de cambio con la primer entrada en servicio del

producto, sea por este u otro causal

Si la causa es debilidad de los componentes causada por una partida con alto índice de defectos, la acción curativa quedara restringida a todos los equipos que fueron montados con esos componentes, para lo cual sirve la trazabilidad.

Mantenimiento correctivo

Se distinguen dos tipos de mantenimiento correctivo: • Mantenimiento primario. Se trata en el menor tiempo posible de remover una unidad

o modulo que contiene el elemento fallado y reemplazarla por otra, sin detenerse a aislar el elemento especifico en falla, valiéndose para ello de indicadores de diagnostico apropiados

• Mantenimiento secundario. Este mantenimiento sigue al mantenimiento primario. Se realiza sobre los módulos que han sido removidos en el mantenimiento primario, apoyándose en instrumental y un banco de prueba, y se ejecutan en un lugar alejado del punto en que ocurrió la falla.

Estos conceptos de reparación se aplican sobre todo cuando se requiere alta

disponibilidad, y se fundamentan en que: • es mas fácil reconocer un modulo en falla que el elemento que la provoca

Page 173: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad

165

165

• el modulo, normalmente enchufable, puede ser removido y ser reemplazado en muy corto tiempo; no es este el caso de un elemento que esta soldado sobre una placa de impreso

En este tipo de mantenimiento se incluyen las tareas no programadas, que son

consecuencia de una falla repentina en el sistema o producto, a saber :

Identificación de la falla (diagnostico) Desarme y acceso Localización del elemento en falla (aislamiento de la falla) Remoción y reemplazo o arreglo Ajuste Rearmado Verificación

Todas estas acciones son totalmente técnicas, y los tiempos involucrados en las mismas definirán el menor tiempo en que un equipo fallado puede ser reparado. Es básicamente sobre estos tiempos que puede y debe actuarse en la etapa de diseño. Función de mantenibilidad El tiempo de reparación dependerá del elemento bajo falla, y de factores tales como la accesibilidad, facilidades para el diagnostico, habilidad de los reparadores, etc. Como las fallas son aleatorias, y es diferente el tiempo de reparación involucrado en cada componente, los tiempos necesarios para volver el equipo operativo serán también aleatorios. Supongamos un conjunto No de equipos con fallas diversas, y que la cantidad de equipos reparados al cabo del tiempo t sea Nr(t), entonces, la mantenibilidad al tiempo t estará dada por

o

r

NtN

tM)(

)( =

La cantidad de equipos que pueden ser reparados en el lapso ∆t dependerá de la cantidad de equipos aun no reparados y del lapso de tiempo

( ) ttNNttN ror ∆−=∆ .)()..()( µ o también

( )t

NtNN

tN

tN

o

ro

o

r ∆−

=∆

.)(

).()(

µ

siendo µ(t) la tasa de mantenibilidad. Operando sobre la expresión (17) se obtiene dtt

tMtdM ).(

)(1)( µ=

e integrando, bajo la condición de que en t=0 no hay ningún equipo reparado, y por tanto M(0)=0, se obtiene

∫∫ =−

ttM

dtttM

tdM

0

)(

0

).()(1

)( µ

de modo que

−=−

t

dtt

etM 0

).(

1)(µ

con una función de densidad dada por [ ])(1).(

)()()( tMt

tdtdMtm −== µ

siendo el tiempo medio de reparación

(15)

(16)

(17)

(18)

(19)

(20)

(21)

Page 174: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad

166

166

λ

µ

Funcionando Estado 1

Fallado Estado 2

λ

Funcionando Estado 1

Fallado Estado 2

m(t)

tt t

m(t)m(t)normal exponencial lognormal

∫∞

==0

.).(][ dtttmtETMR

Dado que la mantenibilidad es la probabilidad de que un equipo que entro en proceso de reparación en el instante t=0 este reparado al cabo de un cierto tiempo t, entonces, si la función de mantenibilidad fuese conocida se podría determinar, prefijado un riesgo, el tiempo que puede llevar su reparación. El riesgo mide la probabilidad de que no sea reparado al cabo de dicho tiempo. Esto puede hacerse determinando cual de los modelos probabilísticos se ajusta mejor a los datos experimentales, recurriendo para ello a papel probabilistico o alguna de las pruebas de bondad de ajuste, como ser la prueba de Kolmogorov-Smirnov o la prueba χ2.

Los modelos de mantenibilidad más usados son el normal, el exponencial y el log-normal, figura 28, dependiendo de que:

1. Los tiempos están determinados por acciones comunes, como ser desarmado y rearmado, con una leve fluctuación que depende del tipo de elemento ( ley normal )

2. La mayoría de las reparaciones demandan poco tiempo por disponer de un sistema de diagnostico ( modelo exponencial )

3. Existan muchas tareas de mantenimiento que requieren mas tiempo que la media; es decir, la mediana es mayor que la media ( modelo lognormal)

Disponibilidad

La disponibilidad ha sido definida por la probabilidad de que un equipo se encuentre operando, o en capacidad de operar, en un instante de tiempo t cualquiera partiendo de una condición inicial prefijada, que puede ser de funcionamiento, o desde un estado de falla.

Mientras que la fiabilidad se preocupa por un funcionamiento continuo sin falla, y es aplicable a equipos reparables y no reparables, la disponibilidad es una característica propia de los equipos reparables. Para un equipo no reparable, la probabilidad de que en un instante t este operativo dependerá únicamente de que no entre en falle; o sea que, en este caso, coincidirá la disponibilidad con la fiabilidad.

Disponibilidad y fiabilidad de un equipo reparable

Consideremos como caso simple el de un equipo reparable, el cual puede estar en cualquiera de sus dos estados, entre los cuales evoluciona con tasa de fallas λ y de reparación µ, figura 29.

Si lo que interesa es hallar la fiabilidad solo se debe considerar la evolución de 1 a 2,

mientras que si fuera la disponibilidad se deben considerar las dos transiciones. Es decir, la

(22)

Fig.29 Fig.30

Fig.28

Page 175: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad

167

167

(24)

fiabilidad esta dada por la probabilidad de que estando en el estado 1 se mantenga en ese estado. Mientras que la disponibilidad esta dada por la probabilidad de que si en t=0 se encuentra en el estado 1 se mantenga en ese estado, o bien de que si en algún momento entre 0 y t paso al estado 2, en el instante t se encuentre nuevamente en el estado 1; o bien de que si en t=0 esta en el estado 2, en t este en el estado 1. Si las transiciones son a tasa constante, la fiabilidad resultara del análisis del sistema de la figura 30, el cual lleva a

tetR λ−=)( Para hallar la disponibilidad A(t) se necesita resolver el sistema de ecuaciones diferenciales (ver página 125),

212

211

..)(

..)(

PPdt

tdP

PPdt

tdP

µλ

µλ

−=

+−=

sujeto a una condición inicial dada, por ejemplo que para t=0 el sistema se encuentra funcionando, estado 1. En este sistema, la disponibilidad A(t) esta dada por la probabilidad de que en t el sistema este en el estado 1, o sea por P1(t), vale decir

)()( 1 tPtA = Pero además, como debe ser

1)()( 21 =+ tPtP

queda finalmente

[ ] µµλµλ ++−=−+−= )().()(1.)(.)( tAtAtAdt

tdA

De esta expresión podemos hallar por un lado la disponibilidad de largo plazo, sabiendo que en tal caso debe ser

0)(=

∞→tdttdA

de modo que reemplazando resulta

TMRTMEFTMEFAD

+=

+=∞=

µλµ)(

Si en la solución de la ecuación (28) se considera un factor de integración de la forma e-(λ+µ).t y como además es A(0)=1, esto lleva a la expresión

tetA ).(.)( µλ

µλλ

µλµ +−

++

+=

que nos muestra que la disponibilidad, arrancando desde 1 para t=0, tiende en forma monótona a un valor constante, igual al valor de la disponibilidad de largo plazo. Si la condición inicial fuese que en t=0 se comienza la reparación del equipo, en ese caso la disponibilidad debe arrancar en 0 en t=0, y tender a largo plazo al mismo valor anterior, figura 31.

(23)

Fig.31

(25)

(26)

(27)

(28)

(29)

(30)

(31)

Page 176: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad

168

168

(33)

estado 3

λλ

estado 1

estado 2µ

Disponibilidad y fiabilidad con reserva y mantenibilidad Para hallar la fiabilidad de un sistema formado por un equipo activo y otro en reserva, figura 32, solo se deben considerar las transiciones que mantienen en funcionamiento al sistema en forma ininterrumpida, figura 33. Se supone que la conmutación no tiene fallas ni demora, y que además el equipo en estado de reserva no falla en ese estado. Prefijadas condiciones iniciales, la fiabilidad, probabilidad de estar en los estados 1 o 2, puede ser hallada resolviendo el sistema de ecuaciones diferenciales

)().()(.)(

)(.)(.)(

212

211

tPtPdt

tdP

tPtPdt

tdP

µλλ

µλ

+−=

+−=

o bien definiendo un sistema equivalente de solo dos estados, englobando a los estados que aseguran el funcionamiento del sistema 1 y 2 en un estado único, figura 34. Supongamos que el sistema original evolucione del estado 1 al 2. Es claro que habiendo saltado al estado 2, la probabilidad de que regrese al estado 1 es µ .∆t, y de que salte al estado 3 es λ.∆t. Esto implica que por cada transición de 2 a 3 se producirán µ/λ transiciones de 2 a 1. Por consiguiente, mientras en un sistema sin reserva en un lapso ∆t se tendrían λ transiciones, en el nuevo sistema se tendrán µ/λ menos, lo cual permite aproximar la fiabilidad por la expresión

t

etR..

)(λ

µλ

⎟⎟⎠

⎞⎜⎜⎝

⎛−

= expresión que es valida si, como ocurre, la relación µ/λ es alta.

La figura 35 muestra la importancia de la mantenibilidad en la mejora de la fiabilidad, y la figura 36 permite apreciar que la diferencia entre el verdadero valor de la fiabilidad y el que resulta de la aproximación (33) es mínimo si µ/λ≥30.

Fig.32 Fig.33

(32)

Fig.36

Fig.34

Fig.35

Fiab

ilida

d

µ/λ=

Fiab

ilida

d

µ/λ

1

2

3

1 operativo1 en reserva

λ

λ

µ

µ

1 operativo1 en reparacion

2 en reparacion

1

2

3

1 operativo1 en reserva

λ

λ

µ

1 operativo1 en reparacion

2 en reparacion

Page 177: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad

169

169

function y=markov(t,p) la=.001; mu=.01; y=[-p(1)*la+p(2)*mu;p(1)*la-p(2)*(mu+la)+ mu*p(3);p(2)*la-p(3)*(mu+la);p(4)*la];

t=1:1000; po=[1 0 0 0];% condicion inicial [t,p]=ode45(@markov,t,po); r=p(:,1)+p(:,2)+p(:,3); %fiabilidad t1=t*.001; plot(t1,r,'r')

LISTADO 1

LISTADO 2

1 operativo2 en reserva

1 operativo1 en reparación1 en reserva

1 operativo2 en reparación

λ

µ

λ

3 enreparación

1

2

3

λ

µ

1 operativo2 en reserva

1 operativo1 en reparación1 en reserva

1 operativo2 en reparación

λ

µ

λ

3 enreparación

1

2

3

λ

µ

4

Análisis de un sistema general

A medida que aumenta el número de estados se dificulta la solución analítica. En tales casos parece más adecuado hallar la solución del sistema de ecuaciones diferenciales en base a algún paquete de computación numérica, como el que provee Matlab. Para mostrar la simplicidad de este tratamiento, consideraremos el caso de un sistema con mantenibilidad y dos equipos de reserva, figura 37.

Matlab dispone de un paquete de cálculo para la solución de ecuaciones diferenciales, denominado Matlab ODE, el cual, a partir de condiciones iniciales, permite determinar la evolución de un conjunto de variables ligadas a través de un sistema de ecuaciones diferenciales. Para resolver el sistema se debe codificar el sistema de ecuaciones como una función y guardarla como un archivo de extensión .m, Listado 1, figura 38. Esta función es llamada por uno de los solucionadores de ecuaciones diferenciales que integran el paquete de Matlab, en este caso el ode45, el cual provee moderada precisión y es típicamente uno de los más usados, Listado 2, figura 38. Este tratamiento, como se ve es simple, y permite rápidamente hallar tanto la fiabilidad como la disponibilidad, partiendo de cualquier estado inicial. La figura 39 muestra, para el sistema de la figura 37, la fiabilidad partiendo de cualquiera de los tres posibles estados. Claramente se ve que partiendo del estado 3, la fiabilidad se desmejora apreciablemente, por lo que este debe ser considerado como un estado de emergencia del sistema.

En la figura 40 se muestra la fiabilidad que se obtiene en el estado que se denomina como de emergencia comparándola con la fiabilidad que se tendría en un sistema sin reserva alguna. Se aprecia en dicha figura que, aun en el peor caso, el sistema con reserva igualmente presenta a largo plazo una gran ganancia respecto a un sistema sin reserva.

Fig.37

Fig.39 Fig.40

Fig.38

Page 178: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad

170

170

(34)

(38)

(39)

(40)

Tiempo de mantenimiento medio

Cada componente tiene asociado una tasa de fallas λi y un tiempo tri de reparación. Muchos componentes tendrán valores coincidentes de λi y tri, por lo que el tiempo total de reparación, Tr , considerando todas las fallas que puedan darse en un tiempo suficientemente largo T estará dado por

∑=

=m

iriiir TtnT

1

...λ

donde m es el total de grupos de componentes y ni la cantidad de componentes del tipo i La cantidad de eventos que llevan a ese tiempo total de reparación depende del

número total de fallas,

Numero total de fallas = ∑n

ii Tn ..λ

de modo que habrá un tiempo medio de mantenimiento correctivo dado por

∑== n

ii

i

n

ii

n

tnTMRMc

λ

λ

.

..

En base a esta expresión se puede calcular el TMR de un equipo en función de la tasa de falla λi y el tiempo de reparación tri de cada elemento o grupo de elementos.

Del mismo modo, habrá un tiempo medio de mantenimiento preventivo, Mp

Si tpi es el tiempo que demanda una intervención preventiva para una acción dada i, que se practica a intervalos Ti, entonces el tiempo total insumido en las intervenciones estará dado por

Tft

TTtt ipi

ipip ... ∑∑ ==

y como el número de intervenciones esta dado por

∑∑ == TfiTTn

ip .

resulta un valor medio dado por

∑∑

∑∑ ==

tpi

pitpi

pti

piptip f

tfTf

TtfM

..

..

donde ftpi= frecuencia con que se ejecuta la tarea de mantenimiento i-esima tpti= tiempo requerido para la tarea i-esima.

En un lapso de tiempo T habrá cierta cantidad de intervenciones preventivas de

duración ( tp) y otra cantidad de intervenciones correctivas de duración (tc), de modo que el tiempo total durante el cual el equipo es intervenido (Ti) será

∑ ∑+= tptcTi i

y el tiempo medio por intervención, sin discriminar el tipo, esta dado por

∑ ∑+=n

tnt

nT pci

o también

∑∑ +=+== ppccp

pp

c

cc MpMpnt

nn

nt

nn

MTMR ..

(41)

Tiempo total bajo intervención preventiva Total de intervenciones preventivas =pM (37)

(42)

(43)

(35)

(36)

Page 179: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad

171

171

(44)

(48)

Disponibilidad intrínseca, efectiva y operativa

Para evaluar la disponibilidad de un sistema suele tomarse la disponibilidad a largo plazo, dado que este valor es independiente del estado del cual se parta. En un servicio de uso continuo, la disponibilidad es un factor que mide el máximo grado de utilización del equipo, dentro de su vida útil. Este dependerá de que tiempos se consideren como de indisponibilidad del equipo.

La mejor disponibilidad se obtendrá cuando solo se considere la indisponibilidad debida a fallas catastróficas y se computen únicamente los tiempos técnicos (activos) de reparación, es decir, los que están comprendidos en la identificación, localización, remoción, reposición, ajustes y verificación. En esta evaluación se incluyen los tiempos de reparación debidos a las fallas catastróficas de los elementos sujetos a mantenimiento correctivo, excluyendo los tiempos involucrados en el mantenimiento preventivo. Se excluyen los tiempos de las acciones de mantenimiento preventivo, dado que, al ser programadas, pueden hacerse en tiempos que no afectan la utilización del equipo, lo cual será posible en equipos de uso discontinuo. Por otro lado, los retardos logísticos y administrativos, son dependientes del sistema de mantenimiento, y teóricamente podrían hacerse nulos. La disponibilidad así calculada es denominada intrínseca o inherente y representa la mejor disponibilidad posible del equipo. Es una característica totalmente definida en el diseño. Bajo práctica preventiva, al considerar solo las acciones correctivas, la disponibilidad intrínseca adquiere su mejor valor,

ci MTMEMc

TMEMcA+

=

donde TMEMc es el tiempo medio entre fallas correctivas y Mc el tiempo medio de mantenimiento correctivo.

Si la intervención no resulta transparente al uso, sino que indispone el uso del equipo, es necesario computar los tiempos involucrados en tales acciones, hablándose en tal caso de una disponibilidad efectiva, dada por

ppcce MpMpTMEM

TMEMA.. ++

=

donde TMEM (ó MTBM, mean time between maintenance ) es el tiempo medio entre acciones de mantenimiento,

pceq

TMEMλλλ +

==11

siendo λc la tasa de fallas catastróficas, y

pp M

1=λ

la tasa de intervención preventiva. Como λc decae cuando λp se incrementa, habrá un Mp óptimo, que maximiza la disponibilidad.

Raramente la intervención es inmediata a la falla, por necesidades administrativas, papeleos, traslados, esperas y tiempos logísticos, siendo frecuentemente estos los que determinan el tiempo para la reposición en servicio, de modo que la disponibilidad operativa final se vera afectada por todo ello,

AdyLogcppcco MpMpMpTMEM

TMEMA... +++

=

donde TMEM es el tiempo medio entre intervenciones, Mp es el tiempo medio de mantenimiento preventivo, Mc es el tiempo medio de mantenimiento correctivo, y MAdyLog es el tiempo medio administrativo-logístico. A diferencia de las disponibilidades intrínseca y efectiva, la disponibilidad operativa depende más del usuario que del equipo: de la organización, política y estructura de mantenimiento, y del inventario de repuestos, y afecta, por no ser programada, solo al mantenimiento correctivo.

(45)

(46)

(47)

Page 180: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad

172

172

Tiempo de reposición de servicio

Si para la reposición del servicio se recurre a unidades de repuesto, concebidas como módulos directamente insertables, la función reparación tiene poca implicancia en el restablecimiento del servicio, y en tal caso se debe aplicar el concepto de tiempo medio de reposición de servicio (TMRS o MTRS), dado por el tiempo requerido para obtener una unidad de sustitución, suponiendo que se cuenta con el repuesto, y sumándole a dicho valor el tiempo de instalación. En tanto, el tiempo medio de reparación ( TMR o MTTR) define el tiempo necesario para reparar la unidad defectuosa, generalmente en un centro de reparación distante.

En rigor, el tiempo medio de reposición de servicio incluye el tiempo dedicado a aislar el defecto, el necesario para obtener una unidad de repuesto, mas el tiempo para reemplazar la unidad defectuosa y comprobar el buen funcionamiento del equipo.

En los sistemas se suele diferenciar entre equipamiento esencial y no esencial, según que afecte o reduzca la capacidad de prestación o de partes que no tienen influencia significativa en la misma (por ejemplo la falla de algún testigo de estado). En tales casos, los tiempos medios de falla para la porción esencial del equipamiento pueden estar en un orden de veces por encima de las partes no esenciales, y al mismo tiempo con menores tiempos medios de reposición. Esto implica que para las partes esenciales conviene, más que la reparación, hacer la reposición in situ en base a unidades de repuesto. El tiempo medio de reparación, TMR, es un concepto que se aplica a la unidad defectuosa, no al sistema, desglosándose en :

• Tiempo técnico (activo ), que se cuenta a partir del momento en que el equipo llega al técnico; es normalmente el tiempo mas pequeño, y en algunos casos solo representa el 1% o menos del total.

• Tiempos administrativos: involucra los tiempos de “papeleo” (burocráticos), traslados, y colas de espera.

• Tiempo logístico : involucra el tiempo que demanda la obtención de repuestos

Los tiempos administrativos y logísticos dependen del sistema de mantenimiento, y es una prerrogativa del usuario definir el que le resulta más apropiado, atendiendo al tipo de servicio, cuando se trata de equipos de uso profesional.

Capacitación y experiencia

Se debe diferenciar entre capacitación, relacionado con un entrenamiento formal para la realización de una tarea, y nivel de experiencia vinculado con la habilidad desarrollada en el ejercicio de la misma. Ambos factores inciden en el tiempo de ejecución de las tareas.

Las tareas de capacitación son necesarias cuando el equipo a reparar presenta cierta complejidad. Incluyen la realización de cursos formales y de entrenamiento para la realización de las tareas de mantenimiento. La capacitación tiene por fin :

• Entender el funcionamiento del equipo • Entender y manejar la documentación de mantenimiento • Conocer cuales son las fallas mas frecuentes y aprender a resolverlas • Saber llevar a cabo las acciones de mantenimiento preventivo • Aprender a diagnosticar y reparar las fallas en general

y deberá apoyarse en un manual de capacitación para el mantenimiento. Este puede ser un documento en papel, en formato electrónico, ser un casete de video, o estar ubicado en un sitio de la web, e incluso puede estar contenido dentro del propio equipo.

El objetivo es alcanzar una efectividad inicial mínima, de modo de :

1) Minimizar la cantidad de personal necesario 2) Minimizar la cantidad de horas de mantenimiento empleadas

Page 181: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad

173

173

3) Reducir la tasas de error en el cumplimiento o desarrollo de las tareas, o posibles daños, lo que implicará disponer de protecciones y salvaguardas

4) Evitar la ejecución de trabajos innecesarios, como ser remociones y chequeos indebidos

5) Aumentar el conocimiento de las relaciones causa-efecto, para mejorar la diagnosticabilidad

6) Lograr el menor tiempo de indisponibilidad (mayor satisfacción del cliente ) y la evaluación de estos parámetros mostrara si el programa de entrenamiento es adecuado.

Si el sistema no es complejo y la probabilidad de cometer errores es baja, generalmente se elimina el entrenamiento o capacitación formal y se emplea solamente el entrenamiento “sobre la marcha”; es decir, aprender a medida que se realiza el trabajo. Pero siempre la mayor efectividad se logra a partir de la acumulación de experiencia, la cual se evalúa por medio de curvas de aprendizaje. Estas curvas responden a modelos, uno de los cuales supone que el tiempo de ejecución demandado por una tarea cuando se ejecuta por n-ésima vez, T(n), se vincula al tiempo requerido por vez primera, T(1), por la expresión

donde β es un parámetro del modelo. Otro modelo apropiado es el de Gompertz,

⎟⎟⎠⎞

⎜⎜⎝⎛

−−

−=1.

1 .)(n

b

eaeTnT dado que contempla un progreso fuerte al principio, para acercarse a un piso después de haber repetido cierto número de veces la tarea. Estos modelos son útiles para determinar los recursos requeridos para cumplir con tiempos efectivos de mantenimiento, y para definir los tiempos de entrenamiento necesarios. A veces la evaluación se hace mediante un factor de inexperiencia, el cual mide el incremento del tiempo medio de reparación de una persona con cierto tiempo de experiencia en relación al tiempo que le insumiría a una persona experimentada. Diseño para la mantenibilidad Los tiempos involucrados en el mantenimiento, tanto correctivo como preventivo, quedan definidos explicita o implícitamente en las primeras acciones de desarrollo, a partir mismo de la definición de producto. Para ciertos productos, es en la propia definición donde se establecen las exigencias de mantenibilidad en forma directa, especificando el tiempo medio de reparación, o en forma indirecta a través de exigencias de fiabilidad y disponibilidad. Durante la etapa de diseño del equipo se apunta a lograr:

• Reducción de los medios necesarios para el mantenimiento • Hacer posible el mantenimiento por personal inexperimentado • Disminución del tiempo de inmovilización para el mantenimiento, usando

módulos reemplazables, incorporando indicadores funciona/falla y medios de autodiagnóstico.

• Previsión de puntos de acceso y determinación de las señales esenciales a verificar que faciliten el aislamiento de las fallas

• Medidas de prevención frente a fallas graves, o a las acciones de desgaste • Prevención de fallas para conexión en caliente ( interconexión de equipos

cuando al menos uno de ellos esta en operación ) • Imposición de fusibles, conectores polarizados, bloqueos o inhibición de

controles cuando un accionamiento inoportuno pueda dar origen a fallas apoyándose en:

β−= nT

nT)1()( (49)

(50)

Page 182: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad

174

174

• El análisis y/o determinación de los criterios y políticas de mantenibilidad impuestos en la definición del producto, como paso previo a la concepción y el diseño

• FMEAs (failure mode and effects analysis), en los cuales se hace el análisis de los modos posibles de falla y sus efectos, con el fin de prevenir en el diseño las causas, y facilitar su corrección

• revisiones criticas del proyecto, en las que se trata de ver que el desarrollo contemple las exigencias de mantenibilidad que se hayan impuesto

• la definición de acciones de mantenimiento preventivo pasivo, que atiendan el entorno de operación del equipo

• el análisis de los datos de campo disponibles, o recopilando información de campo para conocer los problemas encontrados en equipos similares

• la estandarización, racionalizando el empleo de componentes ( no diversificar), para reducir el nivel de repuestos; independientemente, se usaran componentes preferidos, y de fácil obtención

• un diseño mecánico con facilidad para el desmontaje, con indicaciones y vistas que permitan además el posterior ensamble en forma rápida

• análisis térmicos, tendientes a determinar la disipación de calor dentro del equipo, de modo de asegurar para los componentes la menor temperatura posible, como medida proactiva para reducir la tasa de fallas. Esto implica :

o diseñar el gabinete para proveer adecuada transferencia de calor al ambiente o localizar los componentes para lograr:

la mejor transferencia de los elementos de alta disipación el aislamiento térmico de los elementos mas sensibles a la

temperatura o Considerar la comprobación de todas las temperaturas criticas como un paso

esencial del diseño • el diseño de experimentos dedicados a obtener mejoras en la disponibilidad y la

mantenibilidad • disposición de ajustes que sean poco interdependientes entre si • la definición y consideración de escalones de mantenimiento en el diseño • previsión de repuestos de componentes específicos, para atender las reparaciones

durante el lapso de vida del producto. Algunos compradores exigen la obligación de suministro por lapsos determinados ( en algunos casos de hasta 20 años ).

• Definición de rutinas de comprobación y reparación, y forma de acceder a memorias o registros ( por ejemplo a través de buses internos como el I2C, o el IEEE 1149 ) para verificación de estado

• Definición del rearranque seguro en sistemas de operación continua • Disposición de facilidades de reprogramación, en caso de equipos programables

Serviciabilidad

La serviciabilidad evalúa la facilidad con que un equipo permite la reparación, conciliando la ubicación de los componentes más propensos a falla para facilitar su localización, el acceso, su remoción y recambio, con otros aspectos tales como su tamaño, peso y forma, compatibilidad térmica, compatibilidad electromagnética, facilidad para el ajuste, y razones ergonométricas. La serviciabilidad se ve ayudada con:

• Facilidad de acceso. Por ejemplo en el caso de la figura 41 resulta difícil acceder para

comprobar o reemplazar el componente B, que esta encajonado entre los elementos A y C. También, una realización como la indicada en la figura 42a dificultaría la remoción y reposición de los componentes

Page 183: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad

175

175

• Existencia de puntos de prueba adecuados, que permitan localizar fácilmente la falla • Disposición de elementos de monitoreo, con indicación en una pantalla, o por lectura de

un instrumento, del comportamiento de algunas variables del equipo (corrientes, tensiones, niveles de excitación, temperatura, estado de algún elemento que sufre desgaste, etc). Las indicaciones estarán adaptadas a cada equipo, pudiendo ser:

o Focos luminosos, diferenciando por color, parpadeos o cadencia para distinguir los distintos tipos de problema

o Indicadores, display o pantalla, con números o letras para referenciar defectos tipo, especialmente si la variedad de fallas es muy alta.

o Instrumentos de aguja o digitales. En el primer caso, la escala puede estar diferenciada en zona normal de funcionamiento (verde) ó insegura (roja); en el segundo, la condición insegura se diferencia mediante parpadeo de la indicación

o Señales acústicas codificadas para aumentar la capacidad de reconocimiento, y diferenciación del tipo de falla, con es el caso del arranque de una PC

• Modularización : balanceando entre las dos opciones:

• Equipo modularizado • Equipo de chasis único, totalmente integrado

La idea es armonizar las exigencias de un fácil reemplazo de módulos o plaquetas, para facilitar el primer escalón de mantenimiento por parte del usuario, con el de los procesos de manufactura y los costos.

• Conexiones flexibles: El empleo de mangueras y cableados terminados en conectores facilitan el mantenimiento, evitando desoldaduras y posteriores resoldaduras.

• Facilidad para el desarmado y rearmado, estableciendo formas de fijación para las partes mecánicas que hagan simple y rápido el desarmado y posterior rearmado:

o Recurriendo al empleo de partes unidas por encastres o enchufe a presión o Evitando el uso de tornillos, y de usarlos mantener el mismo tipo de cabeza y paso o Empleando trabas rebatibles o Reducida cantidad y variedad de herramientas

• Facilidad para la validación por bloques. Esto se logra seleccionando puntos de prueba que permitan validar o descartar grandes bloques, de modo que con pocos pasos de chequeo se pueda determinar la parte en falla.

• Facilidad para la diagnosticabilidad o supervisión, permitiendo por ejemplo que desde un remoto sea posible hacer el testeo del equipo valiéndose de un MODEM

• Inhibición de falsas maniobras. Si el procedimiento de mantenimiento debe ejecutarse siguiendo pasos en un orden prefijado, el producto debe desarrollarse de modo que solo sea posible realizar dichos pasos siguiendo tal orden

• Provisión de seguridad mediante guardas, coberturas, advertencias, seguros de puertas y restricciones de acceso para aquellas partes que operan a alta tensión ( tensiones superiores a los 70 Voltios ), tienen partes móviles, emisión láser, etc.

• Previsión de acciones de mantenimiento preventivo, de modo que su frecuencia sea fijada considerando los turnos por día y la cantidad de días a la semana en la que se prevé estará operativo el equipo.

Fig.41 Fig.42 a) b)

placaA

BC

Page 184: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA : Mantenibilidad

176

176

Diagnosticabilidad La diagnosticabilidad mide el conjunto de medios dispuestos en el equipo destinados al pronto reconocimiento de los elementos en falla, de modo de aislarlos y corregirlos en el menor tiempo posible. Cuando se la considera en el diseño, se habla de un diseño orientado a la diagnosticabilidad. Supongamos un equipo compuesto por N componentes dentro de los cuales se debe aislar un componente en falla, y supongamos que todos tengan igual probabilidad de falla. Si el método de prueba se basara en una comprobación secuencial, y cada comprobación insumiera un tiempo To, el tiempo necesario en media estaría dado por

oTNTc .21 =

Si se instrumenta un método mediante el cual cada prueba permite aislar la falla a la mitad de los componentes, entonces la cantidad de pruebas n quedaría reducida a

Nn =2 por lo que

oTNTc .

)2log()log(

2 =

resultando así una eficiencia en el método dada por

)log(.

2)2log(

2

1

NN

TcTc

=

Cuando la falla se circunscribe a un componente que puede tener múltiples modos de operación, el proceso no es tan directo. Cuando los estados que puede tomar son pocos, puede ser de ayuda la incorporación de indicadores luminosos. Pero cuando son muchos, una de las mejores aproximaciones a este requerimiento es el BIST (Built-in self-test), también denominado BIT (built-in test). El BIST incorpora capacidad de verificación en el mismo equipo, actualmente favorecido dada la mayor incorporación de software dentro de los equipos, y la proliferación de dispositivos analógicos con interfaces de comunicación por buses, por ejemplo el I2C, o por empleo de dispositivos boundary-scan. Estos sistemas son además necesarios debido a que los defectos cada vez están mas ocultos (son más difíciles de detectar). Algunos sistemas incluyen varios niveles de diagnosticabilidad, cada uno más complejo y potente que el precedente. Estimación de la mantenibilidad

Como un paso mas del diseño habrá que estimar la mantenibilidad, para comprobar que se han alcanzado las metas propuestas, las que luego deberán verificarse sobre prototipos. Para hacer la estimación del tiempo medio de reparación es útil confeccionar una planilla como la indicada en la tabla I. Los tiempos de cada una de las tareas podrán basarse en experiencias previas, u obtenerse de tablas de tiempos. En particular la MIL-HDBK-472 (Military Handbook: Maintainability Prediction ) provee una base de tiempos de reparación estándar. El tiempo medio de reparación resultara de la aplicación de la expresión (34). Si el TMR excediera el valor permitido, habrá que replantear la solución.

(51)

(52)

(53)

(54)

TABLA ITiempo medio ( hrs)Modulo Tipo de

Elementoen falla

Cantidaddeelementos n

TasadefallaFIT

λxnDiagnos-tico

Acceso Locali-zación

reemplazo Ajuste Armado VerificaciónTMRi

λ xTMRx n

1 capacitor 15 40000 .0006 .01 .1 .03 .15 0 .08 .03 .4 .00024

Transistor 3 ... .... .... ... ........ .............. ...... ....

Σ λxn Σ1 Σ λxTMRxn Σ2

Tiempo medio de reparación (TMR) = Σ2/Σ1

Page 185: Libro Materia

Definicionde

producto

desarrollo

manufactura

necesidad

Calidad El problema de hacer correctamente las cosas de entrada es que de ese modo nadie apreciaría cuan dificultoso fue

de "FORTUNES”

Todos los equipos o productos son diseñados para satisfacer una necesidad. En su

acepción más amplia, la calidad de un producto es la medida en que ese objetivo es logrado. Esta evaluación engloba todas las características vinculadas con la aptitud para satisfacer dicha necesidad, estén estas explicitadas o sean condiciones implícitas de uso. Las características se consideran implícitas cuando, a pesar de no estar contempladas en la especificación, igualmente deben cumplirse. Por ejemplo, puede no haber especificación alguna referida a ralladuras o golpes, y ello no implica que las mismas sean aceptables. El satisfacer las condiciones de uso esta vinculado a que el producto:

• sea bien definido • este bien diseñado • sea fabricando conforme • tenga soporte para su uso

Las condiciones que debe cumplir el producto para satisfacer la necesidad se plasman

en un documento de definición de producto. El producto esta bien definido cuando la especificación se corresponde con la satisfacción de la necesidad. Según Juran ( Juran y la Calidad por el Diseño ) “el diseño de un producto es el proceso de definir las características del producto para satisfacer las necesidades de los clientes”. Bajo este enfoque, es en la etapa de definición de producto donde realmente se realiza el diseño, pues es donde se definen los atributos y cualidades que va a tener el producto, y que el desarrollo simplemente debe atenerse a cumplir. El PDD ( Product Definition Document ) es por ello el documento primario y mas trascendente. Es claro que en la definición de producto pueden estar incluidas cosas irrelevantes, y en cambio no estén contempladas otras características que determinan su aptitud para satisfacer la necesidad, figura 1.

Que un factor sea irrelevante o no dependerá del tipo de producto, pero considerarlo

así es siempre una prerrogativa del cliente. Por ejemplo, el color del gabinete puede ser irrelevante en algunas aplicaciones, mientras que en otras será un factor tan decisivo que su especificación se establece dando las coordenadas, con su tolerancia, en el diagrama cromático del IEC. Las características y atributos que explícitamente no integran la especificación, ni son características implícitas del producto, podrán ser considerados grados de libertad solo cuando las mismas sean indiferentes bajo la perspectiva del cliente.

Si bien el PDD establece que características debe cumplir el producto, es en el desarrollo donde estas se fijan, pudiendo o no ser concordantes con las establecidas en el PDD.

Fig.1

Page 186: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad

178

178

De la selección que se haga de partes y elementos podrá resultar que el producto desarrollado tenga apartamientos respecto a la especificación establecida para el mismo. Igual ocurrirá si el proceso de manufactura no conforma al diseño; la instalación, los abusos de uso, y un mal soporte de postventa pueden ser nuevas fuentes de apartamientos.

Para evaluar la calidad de un producto a la salida de fabrica se debe considerar separadamente la calidad de diseño, relacionada con los defectos o vicios propios del producto, de la calidad de fabricación, vinculada a no conformidades debidas a los procesos. Se denomina defecto a la incapacidad para cumplir con los requerimientos de uso. Esto ocurre si los requerimientos establecidos para el diseño difieren de los requerimientos de uso. La calidad de conformidad indica que tan bien cumple el producto con las especificaciones y tolerancias establecidas por el diseño. No conforme es un producto que no satisface los requerimientos de diseño. De esto resulta que un equipo que cumple su especificación, es decir que es conforme, puede no satisfacer la necesidad, y en tal caso debe considerarse defectuoso. Un equipo defectuoso permite un uso restringido. Usualmente se considera que un equipo no conforme es siempre defectuoso.

Todos los productos se fabrican con varios grados o niveles de calidad. Estas variaciones en los grados o niveles de calidad son intencionales, en el sentido de que son conocidas y se aceptan, y el elemento que los diferencia es la calidad de diseño. Vale decir, un producto puede tener buena calidad de fabricación pero mala calidad de diseño.

La calidad de diseño se evalúa en la etapa de validación del diseño y de los procesos de manufactura. Pero, aun cuando todas las acciones del diseño y de la manufactura se orientan para que los productos funcionen satisfaciendo la necesidad desde su primer utilización ( t = 0), por diversas causas puede no resultar así. Si para t = 0 el producto esta conforme queda implícito que funciona, es decir, que cumple con las especificaciones. El no funcionamiento implicara siempre un equipo defectuoso. Si el incumplimiento se produce con el uso, decimos que el equipo entro en falla; la no conformidad o el defecto son, por el contrario, de origen. Es decir, mientras la falla sobreviene con el tiempo, a consecuencia del uso, los defectos son de nacimiento: se originan en el diseño o la manufactura.

En su acepción más restringida la calidad mide el grado de cumplimiento de una especificación; por tanto es una medición de los conformes, y mide tan solo la calidad impuesta por diseño que resulta del proceso. La primera herramienta introducida para la evaluación de calidad, el control estadístico de calidad, esta basada en este concepto. Con el empleo del SQC (Statistical Quality Control ) se busca acotar el porcentaje de productos defectuosos que pueden llegar a manos de los usuarios. El método tiene dos grandes desventajas:

• por ser reactivo, redunda en mayores costos, y requiere además una acción recurrente • por ser estadístico, admite que a manos del usuario lleguen productos defectuosos, en

vez de trabajar bajo la meta de producto perfecto ( cero defectos )

El paso lógico siguiente es la introducción de métodos proactivos: En vez de eliminar los productos que resultan defectuosos al final del proceso, el objetivo es desarrollar procesos que minimicen los defectos, diseñando procesos aptos y manteniendo luego bajo control dichos procesos. Surge así una nueva herramienta, el SPC (Statistical Process Control), que si bien es un paso adelante en el camino de la mejora, es todavía insuficiente porque excluye los defectos originados en el diseño. Se logra un mayor avance cuando se incorpora en la etapa de diseño un conjunto de herramientas y conceptos nuevos, tales como el diseño de experimentos, DOE (Design of Experiments ), técnicas anticipativas de análisis de los modos de falla y sus consecuencias, los FMEA ( Failure Mode and Effect Analysis ), y estudios de ingeniería del valor, VE(Value Engineering ), con el fin de identificar los métodos mas simples y económicos para satisfacer las funciones del producto. Pero el paso mas trascendente se da cuando se introduce el concepto de la administración total de la calidad, el TQM ( Total Quality Management ), en el que se maneja la idea de que la calidad es una responsabilidad de toda la organización. Es decir, el TQM surge como una herramienta destinada a la administración de

Page 187: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 179

179

la calidad vista de un modo totalizador. Esto redefine el papel de la empresa y la responsabilidad de cada sector para lograr mayor productividad, mayor satisfacción de los clientes (no necesariamente son los usuarios finales del producto), mejor posición competidora, mayor participación en el mercado, y al mismo tiempo mayor rentabilidad, figura 2.

Convencionalmente, más que la calidad, se evalúa la falta de calidad, medida por las no conformidades. Esta evaluación se hace midiendo la cantidad de equipos no conformes en proporción a los equipos evaluados. Esta medición, sin embargo, no es totalmente objetiva: Sirve para indicar que proporción de equipos están defectuosos por no conformidad, pero no es un buen indicador de la calidad del proceso, y sin duda del diseño. Puede ocurrir que con igual porciento de equipos defectuosos la cantidad de defectos por equipo sea distinta, y claramente en ambos la calidad es diferente. Esto lleva a considerar los dos siguientes índices de calidad:

• índice o tasa de defectos • proporción de defectuosos o defectuosidad

donde, siendo común expresar dichos valores como porcentajes. La tasa de defectos es una medida de la media de defectos o deméritos por unidad y suele indicarse por U,

n

DU

n

i∑= 1

donde Di es la cantidad de deméritos de la unidad i, y n es la cantidad de unidades evaluadas. Por lo general es usada para evaluar la calidad de equipos complejos. Clasificación de los defectos

Dado que no todos los incumplimientos tiene igual importancia, la evaluación de calidad debe distinguir entre los siguientes tipos de defectos :

• Mayores: Son los defectos que al darse no permiten el uso de los productos. Por ejemplo si un circuito integrado tiene una patita rota, impidiendo su uso, será un defecto mayor

• Menores: Son aquellos defectos que permiten el uso de los productos en forma restringida. Este seria el caso por ejemplo de un circuito integrado que tiene una patita doblada y ello dificulta su inserción manual

• Críticos: Son los defectos que de darse provocarían daños a terceros, por lo cual no es posible el uso

Cantidad total de defectos Cantidad de equipos

tasa de defectos =

Cantidad de equipos defectuosos Cantidad de equipos

defectuosidad =

(1)

(2)

(3)

Fig.2

SQ C

SQ CSPC

SQ CSPCD O E

FM EAVE

Q FDQ FD

D iseño M anufactura

M anufactura

M anufactura

D iseño

D iseño

M arketing

M arketing

M arketing

tiempo

TQ M

Page 188: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad

180

180

Por otro lado, mientras algunos defectos suelen detectarse fácilmente, por simple inspección visual o previo al momento del proceso, otros están mas ocultos y solo se manifestarían en alguna etapa mas avanzada del proceso. Por lo general los defectos de tipo mecánico caen en el primer grupo, y los eléctricos en el segundo. Esto lleva a clasificar los defectos propios de los componentes electrónicos en:

• Mecánicos: vinculados a partes mecánicas. Normalmente son de fácil detección por simple inspección, admitiéndose una tasa de defectos mayor, del orden de hasta 2,5 % o 5%.

• Eléctricos: vinculados a alguna característica eléctrica del producto. Son de difícil detección temprana en el proceso, por lo cual se requiere baja tasa de defectos, al menos un orden de veces menor a los de tipo mecánico, por ejemplo 0,25 % o aun menor. Actualmente valores de 100 ppm o menos son comunes para muchos componentes electrónicos. Calidad de proceso

Todo proceso esta sujeto a la influencia de múltiples factores aleatorios cuyos efectos combinados producen un resultado también aleatorio, el cual queda caracterizado por la función de distribución de la característica de interés. Estos factores pueden desdoblarse en:

• causas comunes, también denominadas aleatorias • causas especiales o asignables, también denominados factores sistemáticos

Las causas comunes son debidas a múltiples factores: operarios, maquinas, materiales,

etc. Cada factor de por si tiene poca influencia, pero, cuando todos confluyen, sus efectos se suman y dan lugar a una variación significativa. Estas variaciones pueden predecirse porque tienen un nivel de variabilidad que permanece relativamente constante en el tiempo. Cuando solo se manifiesta este tipo de causas se habla de un proceso bajo control. Las causas comunes pueden considerarse inherentes al proceso, dado que al no ser fácilmente eliminables, son las que determinaran su capacidad. Es decir, son causas comunes las que resultan una vez que todas las causas especiales de variación fueron eliminadas. La variabilidad debida a causas comunes, por ser consecuencia de muchos factores, dan lugar a una distribución de tipo normal. Esta es condición necesaria para reconocer la existencia de solo causas comunes, pero no suficiente, pues también la presencia de causas especiales puede llevar a una distribución normal.

Las causas especiales, debidas a un operario, una maquina, o un proceso particular, se manifiestan por cierto lapso de tiempo; su característica distintiva es que no es una causa común a todas las unidades. Provienen además de un número limitado de causas, que producen efectos importantes. Las causas sistemáticas pueden subdividirse entre:

• influencias sistemáticas predecibles • factores de perturbación

Con esta subdivisión se busca que el control de variabilidad de proceso discrimine la

influencia debida a efectos perturbadores imprevisibles. No son predecibles cuando no son regulares; es decir, cuando las causas aparecen y desaparecen en forma intermitente. En este caso se dice que el proceso esta fuera de control. En cambio, las influencias sistemáticas predecibles pueden surgir por análisis técnico del proceso, presencia de regularidades, de observaciones empíricas, o bien observando los comportamientos a largo plazo. Un proceso sujeto a factores aleatorios se dice estable cuando la media y la varianza se mantienen constantes a lo largo del tiempo, o sea si

o

o

tt

σσµµ

==

)()(

Esto corresponde al denominado modelo de proceso “A”, figura 3. Cuando permanece constante la varianza del proceso, y la media tiene una variación aleatoria alrededor de una

(4) (5)

Page 189: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 181

181

media de largo plazo, siguiendo una distribución normal, esto define el modelo de proceso “B”. Si la media estuviera sujeta a variaciones regulares, vale decir, con un comportamiento que es predecible, esto corresponde al modelo de proceso “C”, figura 3. Se dice que un proceso esta bajo control cuando mantiene su distribución con el tiempo, o esta cambia de un modo conocido o entre límites conocidos. El que un proceso este bajo control no lo hace apto. Un proceso se dice apto cuando tiene capacidad para satisfacer los requerimientos de calidad y esto implica que sus características se mantienen dentro de límites prefijados, figura 4.

La evaluación de capacidad busca determinar si un proceso es apto. Es obvio que solo para un proceso bajo control tiene sentido el análisis de capacidad.

El que un proceso este bajo control solo requiere que se mantenga la varianza, pero que tenga capacidad requiere además que los valores de sus características se mantengan dentro de límites impuestos por la especificación. Capacidad de Proceso

Usualmente la especificación impone un valor nominal para las distintas características. Aunque el valor que resulta del proceso no coincida con el valor nominal deseado para la característica, igualmente resulta admisible a condición de que el apartamiento no supere ciertos límites, dentro de los cuales se considera que no hay degradación significativa en el cumplimiento de la necesidad. Conocer este apartamiento es necesario para el diseño del producto y para la determinación de métodos productivos aptos.

No deben confundirse los límites establecidos por la especificación con los límites establecidos para el control de proceso. Obviamente, los límites del proceso deben caer siempre dentro de los límites de la especificación. Determinar que esto sea así, es medir la aptitud del proceso para satisfacer la especificación. Es decir, medir la capacidad de proceso es evaluar si las etapas de diseño del producto y de procesos están en aptitud de cumplir la especificación. Que un sistema sea estable no significa que sea apto, pero para que sea apto necesariamente debe ser estable, y cumplir además con las exigencias del diseño.

Modelo de Proceso “A” Modelo de Proceso “B” Modelo de Proceso “C”

Fig. 3

Procesocontrolado

Capacidadde proceso

Si S i Si (*)

S iS iSi N o N o

No No

? No

Resultado

Si (*)S i (*)

(*) Supone causas s istem aticas predec ibles

Fig. 4

Page 190: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad

182

182

Con el valor nominal de la especificación y su tolerancia se pueden establecer los valores extremos de la especificación, Emax y Emin, y por consecuencia su rango ∆E

minmax EEE −=∆ Si la variabilidad que resulta por diseño y proceso se origina en causas comunes,

responderá a una distribución normal, quedando su dispersión limitada mayormente a un intervalo comprendido dentro de los 6σ. Esta dispersión debe ser menor a la tolerancia de la especificación; en la medida en que esto se logre será la aptitud o capacidad del proceso,

σ.6

minmax EEC p

−=

Este índice por lo general no se utiliza, ya que solo evalúa la dispersión, y solo seria aplicable si la media de proceso esta centrada sobre el valor nominal especificado. Serviría para evaluar la dispersión de proceso, pero no la adecuación del proceso a un determinado producto. Para ello el índice debe considerar la situación mas comprometida, dada por ( )plpupk CCC ,min= donde

σ

σ

3

3

min

max

EXC

XEC

pl

pu

−=

−=

y σ es una característica del proceso que debe ser determinada en base a los valores observados, después de haber eliminado las causas especiales.

Este índice evalúa el proceso en relación al requerimiento especifico del producto, considerando el limite mas comprometido de la especificación, figura 5, y supone un proceso bajo control. La condición limite de Cpk=1, si bien corresponde a un proceso bajo control, se debe considerar marginal, mientras que Cpk<1 resulta inaceptable, figura 6.

Considerando un proceso con comportamiento normal podemos suponer como muy raro, prácticamente imposible, la aparición de un evento de valor X-En=4σ, (donde En es el valor nominal especificado para la característica analizada), por lo que si el rango de la especificación en relación a la dispersión (medida por σ) satisface ∆E=8σ, en tal caso el valor de Cpk seria

33.168

6==

∆=

σσ

σECpk

Este valor suele tomarse como el limite de la condición marginal; es decir, Cpk > 1.33 es la condición a cumplir.

Es una tarea del proceso de optimización conseguir que las medias que resultan por diseño y proceso coincidan con el valor nominal requerido, o sea

nEX =

lo cual implicaría nula variabilidad de la media. Esta condición es de difícil cumplimiento, por

Fig.6

(6)

(7)

(8)

(9) (10)

(11)

(12)

Fig.5

p(X)

Emax-Emin

X

p(X)

Emax-Emin

X XEmax - X XLmc - X

Page 191: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 183

183

lo cual, para tener en cuenta sus efectos se impone una exigencia mayor para la dispersión del proceso, estrechándolo en un σ adicional por lado, lo cual implicara considerar 5σ a cada lado para evaluar la capacidad de proceso, o lo que es igual, lograr una dispersión que satisfaga ∆E = 10. σ

Otra forma de evaluar la aptitud de proceso, siempre bajo el supuesto de que las variaciones siguen una distribución normal, es calculando el mínimo valor de la variable normalizada z, definida como

⎟⎟⎠

⎞⎜⎜⎝

⎛ −−=

σσminmax

min ,minEXXE

Z

el cual difiere del valor dado por la expresión (7 ) solo en un factor de escala. Conociendo z, se puede determinar la probabilidad de defectuosos. La mayor dificultad se da en el arranque de los procesos por no contar con suficiente población como para establecer una buena caracterización estadística, y porque además son frecuentes las causas especiales que dan lugar a que el proceso sea inestable. En tal caso, en vez del Cpk se trabaja con el Ppk. La diferencia entre ambos es que en este ultimo el desvío estándar se iguala al desvío estándar muestral, considerando la media muestral que resulta de los k subgrupos con n-1 elementos cada uno,

( )∑ ∑= =

−−

==k

i

n

jijtt xx

nks

1 1

2

1.1σ

y por tanto, a diferencia de σ, en el que solo se contempla la variabilidad de proceso por causas comunes, σt contempla la variabilidad total; es decir, siempre será

σσ ≥t Es decir, mientras σ mide la variación inherente al proceso una vez estabilizado, σt

mide la variación total del proceso. La perfomance del proceso en una fase preliminar de manufactura se evalúa en base al índice Ppk

tpl

tpu

plpupk

XEP

XEP

PPP

σ

σ

.3

.3

),min(

min

max

−=

−=

=

La capacidad de proceso Cpk resulta después de un periodo de mejoramiento, el cual se extiende hasta el punto en que no es posible una mejora adicional, sin recurrir a cambios sustanciales, como pueden ser cambios de maquinas o de tecnologías. Por el contrario Ppk

permite evaluar la perfomance en todo momento, por lo que la relación

),min(),min(

plpu

plpu

pk

pk

PPCC

PC

=

sirve como un indicador del desempeño efectivo de proceso, y por ello algunas regulaciones técnicas establecen que cuando esa relación es mayor a 3 es necesaria una acción correctiva.

Para determinar los índices de capacidad de proceso Cp y Cpk se puede usar la función de Matlab capable(data,espec), la cual además permite obtener la probabilidad de que del proceso resulten muestras que estén fuera de los limites de la especificación. Esta función supone que los valores medidos en data responden a una distribución normal, con valor medio y varianza constantes, y son además estadísticamente independientes. El argumento espec es un vector que determina los limites inferior y superior de la especificación. Además con la función capaplot(data,espec) se ajusta los datos a una distribución normal, y se calcula la probabilidad de que una nueva observación caiga dentro de los limites especificados en espec, graficando la distribución y los limites de la especificación.

(13)

(17)

(14)

(15)

(16)

(18)

(19)

(20)

Page 192: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad

184

184

Control Estadístico de Proceso (SPC)

Bajo la denominación SPC (Statistical Process Control ) se engloban todo un conjunto de procedimientos basados en métodos estadísticos cuyo fin es evaluar ciertas variables del producto y de los procesos. En general, las técnicas de control estadístico de proceso ( SPC ) tratan sobre la adquisición de datos, el análisis de los valores que resultan de las mediciones, el calculo de la capacidad de proceso, y la realización de estimaciones de efectividad de los cambios que se van introduciendo para la mejora de los procesos.

La calidad total de un producto resultara como consecuencia de la ingeniería de diseño del producto, la ingeniería de proceso y del control de manufactura. Asegurar la calidad implica actuar en el momento adecuado en cada una de estas etapas. Pero siempre, la mejor calidad que se puede obtener del proceso de manufactura será consecuencia de la que se haya definido en el diseño y en la ingeniería de procesos, figura 7.

Establecida una calidad de proceso, la aparición de causas especiales en la

manufactura degradaran ese nivel de calidad, figura 8.

Existen dos métodos para evaluar la calidad de manufactura. Uno, conocido como evaluación por atributos, solo busca saber si se esta o no dentro de la especificación. El otro, conocido como evaluación por variables, busca conocer cuan cerca se esta del valor ideal; o sea, determinar en que medida se aparta el producto de su especificación nominal.

La evaluación por atributos tiene la ventaja de ser rápida y simple, pero provee poca información para el control y la mejora. Se utiliza en procesos no críticos, y se conocen como controles del tipo pasa–no-pasa.

Los valores medidos en una evaluación por variables son tratados estadísticamente y permiten saber si el proceso esta bajo control. Fundamentalmente se apunta a determinar si la media y la varianza se mantienen constantes. Por proporcionar más información, la evaluación por variables se utiliza siempre para componentes críticos, y para ajustar la primera serie de producción. Esta es una etapa muy importante e imprescindible a los efectos de la validación del diseño y su adecuación al proceso de producción. Cuando se hace esta caracterización se deben descartar las causas especiales o asignables.

Fig. 8

Diseño deproducto

Calidadde diseño Si

No

¿ cumple ?

Mejoracontinua

Calidad deproceso

Diseño demanufactura

No

¿ cumple ?

Accion decontrol

Manufactura Calidad deproducto ¿ cumple ?

Si

No

Entradas dediseño

Mejoracontinua

Control de manufacturaDiseño de procesosDiseño de producto Uso

Fig. 7

Limite inferior dela especificacion

Limite superior dela especificacion

Procesocontrolado

y apto

defectuosos

tiempo

Proceso fuera decontrol y no apto

Limite inferior dela especificacion Limite superior de

la especificacion

defectuosos

tiempo

Page 193: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 185

185

Graficas de control de calidad Durante la manufactura se debe monitorear el proceso para verificar que el mismo esta bajo control. Para este seguimiento se usan las denominadas gráficas de control, o graficas QCC (Quality Control Chart ), llamadas a veces también graficas de Shewart. Las QCC (Graficas de control de calidad) son el elemento central para el control del proceso.

Con las graficas de control se trata de saber, de un modo visual y rápido, si el proceso se mantiene bajo control o debe intervenirse por excederse los límites admitidos, o bien basándose en el análisis de su tendencia. Las graficas representan la evolución de las características del proceso, y resultan de estimar una característica basándose en una cantidad n de muestras, que son extraídas por lote o unidad de producción (hora, turno, día), las cuales conforman un subgrupo que se supone es representativo del proceso en ese periodo particular.

En el control por variables se evalúan dos parámetros: uno vinculado a la media y otro a la varianza de la característica que se este controlando. En un control por atributos se evalúa un único parámetro, la cantidad de defectos o defectuosos. Usualmente, en cada muestreo se toman unidades consecutivas para evitar que entre ellas se manifieste alguna causa especial. La representación de estos parámetros en función de los subgrupos, normalmente limitada a 25, conforma la grafica de control, figura 9

Los limites son establecidos bajo el supuesto de que es valida la distribución normal; es decir, supone que la diferencia entre el valor obtenido en cada muestreo con respecto al valor nominal propio del proceso es una variable aleatoria que sigue una ley normal, y además se acepta que la probabilidad de que resulten valores apartados en mas de 3 sigma es despreciable, debido a que son evaluadas muy pocas muestras en cada muestreo.

Sea W un parámetro usado como medida de calidad, que resulta de combinar las observaciones X realizadas en cada muestreo. En un control por variables, W estará relacionado con la media o con la variabilidad de la característica X, o será un conteo de defectos, en un control por atributos. Como W resulta de combinar los valores observados, dado el carácter aleatorio de estos, W será por tanto una variable aleatoria. Suponiendo conocido el valor medio de esta variable aleatoria, w , y su desvió estándar

wσ , entonces, en el supuesto de que W

responde a una distribución normal, sus valores quedarán restringidos conforme al criterio de los 3 sigma, y por lo tanto los limites de intervención estarán dados por

En un control por variables, w

σ estará vinculado con el desvió estándar σ que resulta del proceso para la variable X, dependiendo A de la cantidad de muestras extraídas por cada subgrupo.

Si bien el criterio de las 3 sigmas se ha estandarizado, y se le considera un límite natural, los límites de control pueden ser establecidos tomando un criterio distinto, por ejemplo considerando un nivel de confianza del 99%, lo cual es usual en las primeras corridas de producción. En tal caso los límites serán más estrechos.

Limites de intervención de W ww σ.3±=

Fig. 9

(21)

w

σ = A. σ (22)

limite de intervencion superior

limite de intervencion inferior

t

parametro w

subgrupo1 2 3 4 5 6 7 6 8 9 10 11 12 13 14 15 16 1|7 18 19 20 21 22 23 24 25

w6σw

distribuccionnormal

Page 194: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad

186

186

Mejora continua de la capacidad

Analisis de proceso

Arranque produccion seriada

Analisis capacidadde corto plazo

Analisis capacidadprimaria

Analisis capacidadde largo plazo

tiempo

Capacidad decorto plazo

Capacidadpreliminar

Capacidad delargo plazo

Minimo 50 elementos Minimo 100 elementos. Para usargrafica de control se requieren almenos 20 muestreos

Todos los efectos deben habersemanifestado; ocurre despues devarios dias o semanas de produccion

Los limites de intervención surgen de las características del proceso ( µ y σ ), y no deben ser confundidos con los limites que admite la especificación a cumplir. Adicionalmente el grafico puede tener límites de advertencia. Para fijar los limites de intervención se hacen estimaciones de σ y µ en las primeras corridas de producción, y por tanto serán o no adecuados dependiendo del tipo de proceso. Lo serán para un modelo de proceso “A” , pero los modelos “B” y “C”, figura 3, requieren que estos limites deban ser modificados para tomar en cuenta la fluctuación de la media

Dado que los límites son establecidos en el supuesto de una distribución normal, para aceptar los resultados de la grafica de control es necesario comprobar que el modelo es valido. Esto se hace trasladando sobre papel probabilístico normal los datos obtenidos, y verificando que los diversos puntos se ubican sobre una recta, figura 10. También puede trazarse un histograma superponiendo en la misma grafica la función normal basada en los parámetros estimados, figura 11. Recurriendo a Matlab, la prueba de normalidad se puede hacer con las funciones jbtest() para una prueba de Bera-Jarque, lillietest() para la prueba de Lilliefors, o kstest() para la prueba de Kolmogorov-Smirnov.

Optimización de procesos

Cuando un proceso se pone en marcha es necesario realizar sobre el mismo varios análisis de capacidad, tendientes a su optimización, figura 12. Esta optimización se subdivide en dos fases:

• Análisis de proceso previo al comienzo de la producción seriada • Análisis de proceso en producción seriada

Fig.12

Fig.10 Fig.11

Page 195: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 187

187

Normalmente se supondrá que la distribución es normal, salvo que haya evidencias de que el comportamiento sigue otra distribución, en cuyo caso esa será la que debe aplicarse. Se ha visto que para el análisis de proceso se trabaja con:

• graficas de control de calidad • graficación sobre papel probabilístico normal

aunque también puede recurrirse al análisis de varianza ( ANOVA). Los análisis se hacen en cada una de las fases usando los mismos procedimientos y

métodos de cálculo. La única diferencia reside en el número de elementos y en el momento en que se procede al análisis.

Cuando las evaluaciones se ven limitadas a pocos elementos obtenidos en un tiempo corto, básicamente con estas observaciones se obtiene una capacidad de maquina que no toma en cuenta la variabilidad debida a muchos otros factores ( variaciones en el material o en los elementos, variaciones debidas a la mano de obra, variaciones debidas a condiciones ambientales, etc). En estas evaluaciones se parte de un mínimo de 50 elementos producidos en forma continua. El análisis se hace dividiendo los elementos en 10 muestreos con 5 partes cada uno, los cuales son tomados en forma cronológica para identificar posibles tendencias. Con estos valores se puede establecer la capacidad de maquina o la capacidad potencial de proceso, Cm, considerando solo la variabilidad. Si la evaluación toma en cuenta el apartamiento del valor medio con respecto al valor objetivo, o sea el valor nominal de la característica, se obtiene la capacidad de proceso, Cmk. Para un análisis preliminar se requiere como mínimo 20 muestreos de al menos 3 elementos cada uno, tomados a intervalos iguales de tiempo. Una mejor evaluación resulta considerando 25 muestreos con 5 partes cada uno. Este análisis puede ser complementado con un análisis de varianza y análisis de normalidad.

Todos estos análisis tienden a mostrar posibles desvíos, sirviendo de guía para la mejora de procesos. Con los valores preliminares se evalúa la capacidad de maquina, Cm, la capacidad preliminar de proceso, Pp, y la evaluación de capacidad de proceso, Cp, considerando solo la relación entre la variabilidad admitida para el proceso ( ∆E=VLS-VLI). ∆E es la diferencia entre los valores límites superior e inferior admitidos para la característica. Considerando el apartamiento respecto al valor nominal, resultan los indicadores de capacidad de maquina, Cmk, o el de capacidad preliminar de proceso Ppk . Tomando suficientes muestras para tener en cuenta todos los factores de variabilidad se puede también hacer una evaluación de capacidad de proceso, Cpk.

Pero la única manera de asegurar la capacidad de proceso en condiciones reales es mediante análisis de largo plazo. Esto requiere que los datos sean obtenidos en un plazo que permita que todos los factores que influyen en el proceso se hayan manifestado. Normalmente, este análisis involucra la producción por un lapso de un mes. Será una evaluación de potencial, Cp, cuando solo toma en cuenta la variabilidad, y una evaluación de proceso, Cpk, cuando se toma en cuenta la variabilidad alrededor del valor nominal especificado, figura 13. Dado que para la determinación de Cp y Cpk, se usan los valores muestrales de la media y la varianza, los valores así obtenidos son solo estimaciones. Es decir, por definición,

∆ E

VLI VLS

∆ E6σ

En

VLI VLSzpzpk

Fig.13

Page 196: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad

188

188

α/2α/2

s/σ

intervalo deconfianza

p(s/σ)

el verdadero valor de Cp esta dado por

σ6EC p

∆=

mientras que de las observaciones se obtiene un valor estimado

sEC p 6

~ ∆=

de modo que

σsCC pp .~

=

Esto implica que mas que la capacidad de proceso, lo que se determina es el intervalo de confianza dentro del cual se encuentra Cp , suponiendo especificado un nivel de confianza. Si σ es la varianza de la distribución y n es el número de observaciones, entonces como el valor de la varianza muestral s2 sigue una distribución χ2 con n-1 grados de libertad, es decir,

2/12

1 ⎟⎟⎠

⎞⎜⎜⎝

⎛−

=n

s χσ

de modo que considerando un nivel de confianza para la estimación (1-α), resultara para s/σ un intervalo de confianza, figura 14.

Por caso, si se cuenta con n=50 observaciones, de la distribución χ2 con n-1 grados de libertad y un nivel de confianza del 99%, el extremo inferior del intervalo de confianza estará dado por

0.74571

)1,2/1(2/12

1

1

=⎟⎟⎠

⎞⎜⎜⎝

⎛−

−−=

nns αχ

σ

y el extremo superior

1.26351

)1,2/1(2

2/122 =⎟⎟

⎞⎜⎜⎝

⎛−

−−=

nns αχ

σ

de modo que ppp CCC ~*2635.1~*7457.0 <<

Esto indica que la evaluación de capacidad esta sujeta a cierta incerteza, y además como en la evaluación de Cpk interviene la media muestral, la incerteza resultara aun mayor. Las evaluaciones de capacidad de proceso presuponen aptitud en los equipos usados para la medición, es decir, que se cuenta con capacidad de medición. Esto supone que existen adecuados procedimientos para la validación y el seguimiento del instrumental usado en las observaciones, a fin de asegurar que su precisión, linealidad, estabilidad y repetibilidad se mantienen dentro del error admitido. En otras palabras, la variabilidad observada resulta de combinar dos efectos de variabilidad: los propios del proceso y los debidos al sistema de medición, y ambos pueden estar sujetos tanto a causas comunes como especiales de variación.

La exigencia de capacidad de medición, en general se basa en la regla del 10%: los errores de medición deben ser menores que el 10% de la tolerancia a medir. Es decir, la capacidad del sistema de medición, Cmed, debiera verificar

10*6

=∆

=m

medECσ

(23)

(24)

(25)

(26)

Fig.14

(27)

(28)

(29)

(30)

Page 197: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 189

189

Función de Pérdidas de Calidad de Taguchi

En su posición tradicional la industria consideraba que las pérdidas por calidad sobrevienen solo cuando alguna característica se sale de especificación. En contraposición, Taguchi introdujo un nuevo concepto: la pérdida ocurre tan pronto como la característica se desvía de su valor deseado, figura 15. El enfoque nuevo es que explícitamente incluye la insatisfacción del usuario como un costo, considerando que un producto, aun cumpliendo con su especificación, puede originar pérdidas debido a que en su desempeño se aparta de la meta. La evaluación de la función de pérdidas se constituye así en una herramienta para evaluar la mejora en la calidad de un producto.

Se podría decir que frente a la calidad hay dos posiciones: 1. Operar con la peor calidad que el usuario tolera; el presupuesto es que la calidad tiene

un costo, y por tanto el nivel que no acarrea reclamos es el aceptable, 2. Operar con la mejor calidad que el usuario pueda reconocer; esta postura presupone

que el usuario valora la calidad, independientemente de que haga o no reclamos; es decir, la meta es la satisfacción del usuario

La cuestión es ¿por qué producir piezas con una calidad mejor a la requerida por las

especificaciones?. La respuesta es que esto lleva no solo a satisfacer mejor al cliente, sino que además obliga a una mejora constante de los procesos, y se logra también una reducción en los costos. Esto se contrapone con el enfoque de suponer que la calidad tiene como finalidad definir para el producto el mínimo nivel de calidad que el cliente esta dispuesto a aceptar, presuponiendo que una mejora de calidad implicara mayor costo, menores beneficio y es un esfuerzo sin sentido.

La variabilidad que surge del proceso de manufactura puede resolverse de dos modos:

• Definiendo procesos e insumos para entrar dentro del rango admitido en la especificación

• Aceptando la variabilidad que surja de los procesos e insumos y segregando en el control los elementos que estén fuera de especificación, figura 16

Si aceptamos que del proceso resulta una distribución gaussiana, la segunda

alternativa nos llevara en un caso extremo a una distribución cuasi-uniforme, figura 17. En el primer caso, si la tolerancia en la especificación (∆E) fuese 6σ, el índice de capacidad de proceso valdría 1; en el segundo caso, asumiendo una distribución uniforme,

Cptolerancia12

por lo cual el índice de capacidad de proceso valdría 57.

)12/.(66===

toleranicatoleranciatoleranciaCp

σ

que se corresponde a una peor capacidad. Como en ambos casos se esta dentro de tolerancia la cuestión es saber si los productos que resultan de ambos procesos pueden ser considerados de la misma calidad, aun cuando el índice de capacidad de proceso sea distinto.

(31)

(32)

Fig.16

USA

JaponTolerancia especificada

Emin EmaxXo

L(x)

Valor deseado$

Fig.15

Page 198: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad

190

190

Podría pensarse que en la última posición, dejando de lado los costos visibles y los desechos, bajo la óptica de la calidad se estaría en el mejor nivel posible, dado que se esta cumpliendo estrictamente con la especificación, dado que asegura que todos los productos cumplen la especificación. Bajo esta óptica el Cpk no seria un buen indicador. Esta ha sido la postura tradicional de la industria occidental, en contraposición a la postura adoptada por la industria japonesa. En esta postura, si bien la mayoría de los productos están mas cerca de la meta, tiene la penalización de que algunos pocos pueden quedar fuera de especificación. Pero, con otra mira, en la postura tradicional, habrá mas cantidad de productos alejados del comportamiento ideal, y además, debido a los cambios que sobrevienen con el correr del tiempo, seguramente ambas distribuciones iniciales tenderán a desparramarse, figura 18, originando en el segundo caso mayores reclamos de falla.

En la postura tradicional de la industria los procesos se ajustan hasta caer dentro de la variación admitida por la especificación, tratando de lograr una condición en la cual la variabilidad quede impuesta por las limitaciones debidas a las instalaciones e insumos adoptados, figura 19. El control de proceso en esta postura se limita a verificar que la media µ(t) y la desviación σ(t) se mantienen constantes a lo largo del tiempo. Por el contrario, la postura japonesa supone que existe un valor ideal para la especificación y que se debe trabajar en forma continua en el mejoramiento del producto, actuando sobre el diseño, los componentes y procesos buscando acercarse a ese ideal, figura 20. Esto es visto como una postura filosófica, denominándose kaizen a este proceso de mejora continua, el cual, por lo general acarrea:

• Un brusco incremento de defectos en el corto plazo debidos al cambio • Una fuerte caída de defectos a largo plazo debidos a la mejora

Fig.18

Fig.19

Fig.20

Fig.17

p(X)

X∆E X

p(X)

∆E

p(X)

Emax-Emin Xto t

sσasentamientode proceso

t=0

t>to

E∆

t=T

p(X)

X

p(X)

t=0

E∆X

Cambios de procesos e insumos

p(X)sσ

∆E XEn

Page 199: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 191

191

La posición de la industria japonesa parecería no justificarse, dado que una vez alcanzada la especificación implicaría desarrollar continuamente un esfuerzo sin compensación aparente. Esto parte de suponer que los efectos de la variabilidad se traducen en costo solo si se sale de los limites de la especificación, y en tal caso habrá una penalización que dependerá de la etapa en la que el defecto sea detectado; obviamente, en esta posición una mejora posterior solo acarrea mayores costos. Este seria el caso para una característica cuya función de densidad fuera como la mostrada en la figura 21, en la cual todas las unidades entran dentro de la variación admitida, en cuyo caso, bajo esta premisa no cabría penalización alguna.

La industria japonesa mantiene una postura opuesta: considera que el costo existe en la medida en que haya apartamientos respecto a la condición ideal, solo que estos costos pueden estar ocultos. Razonando así es que Taguchi propuso evaluar estos costos a través de una función de perdidas, proponiendo que el costo dependiera del corrimiento respecto a la condición ideal o meta del producto, m, condición para la cual el costo obviamente será nulo, figura 22. Es decir, en esta postura, la función de densidad de probabilidad ideal debería ser una delta de Dirac, figura 23, ubicada en el valor nominal de la especificación.

En la postura de Taguchi, las pérdidas L dependen de cuan apartado se este de la meta,

)( XfL ∆= donde

mXEXX n −=−=∆ y donde se supone que m es la condición ideal de diseño, normalmente el valor nominal de la especificación, y X el valor efectivo de la característica que se esta evaluando. Si se hace una aproximación de Taylor de segundo orden, es

!2).0(").0(')0(

2XfXffL ∆+∆+=

pero como f’(0) es nulo, porque f(X) tiene un mínimo en X=0 (dado que las pérdidas son positivas cualquiera sea el sentido del apartamiento), y además f(0) también es cero (el cumplir la meta no puede causar pérdida ), resulta

22 )().0("21 mXkXfL −=∆=

donde m representa el valor ideal de la característica, y X el valor efectivo que resulta en una

Fig.21

Fig.22

(35)

(36)

L (x)

∆ Ε

$$

xE n

$ $

L (x)

xE n

x

P (x)

∆ ΕN uevo concepto

P ostura trad ic ional

Fig.23

L( X)∆

∆ Χ

∆ E

δ ( )X

P (X )

∆ Χ

∆ E

(33)

(34)

Page 200: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad

192

192

realización. La constante k puede determinarse si es conocida la pérdida A correspondiente a un apartamiento ∆ , 2∆= kA por lo que se puede poner, 2

2 ).( mXAL −∆

=

Si para un producto hubiera k características a cumplir, de cada una de ellas resultara una pérdida asociada Li, de modo que la pérdida total será la suma de todas las pérdidas, 2).( ii

ki

k

i mXA

LL −∆

== ∑∑

Considerando una única característica, la evaluación del proceso de manufactura debiera basarse en el valor medio de las pérdidas,

( )2)(.)( mXEkLEL −==

y denominando ν al desvío estándar del apartamiento respecto a la especificación, ( )22 )( mXE −=ν resulta

22 ν

∆=

AL

y para k características 2

2 . ii

iAL ν∑ ∆

=

Esta función es útil no solo para evaluar mejoras de proceso, sino también para evaluar la necesidad de introducir cambios en el diseño.

Si bien por este medio es posible poner en evidencia costos visibles, la expresión también es un buen medio para evaluar costos ocultos. Estos resultan de pérdidas en venta o de mercado, tan pronto este percibe una opción para el producto con menor corrimiento respecto al valor ideal. Optimización del diseño

El proceso de optimización arranca con el diseño mismo, comenzando en la definición de producto. El primer problema de optimización que se plantea esta referido a como establecer la tolerancia admitida para las distintas características del producto, y como establecer el valor nominal de estas, a fin de poder plantear la función de pérdidas. Un modo de resolver esto seria:

• Fijar como valores límites aquellos que provocan un nivel de insatisfacción tal que el Y% de los usuarios se vean incitados a demandar acciones correctivas.

• Determinar los costos resultantes de :

o Las pérdidas causadas por indisponibilidad del equipo o Los costos de la reparación, personal y repuestos o Los costos del transporte del equipo al centro de reparación

Es función de la etapa de desarrollo minimizar la función de pérdidas, y a ese efecto el valor del factor k, vinculado con el costo efectivo, es intrascendente.

El proceso de optimación en la manufactura se desarrolla en dos pasos. Primero se busca estrechar la variabilidad del proceso y reducir luego el corrimiento entre el valor medio que resulta de proceso y el valor de diseño. Es decir, primero se busca reducir la dispersión, y en el siguiente paso un mejor acercamiento a la meta. La función de pérdidas es usada para:

(37)

(38)

(39)

(40)

(41)

(42)

(43)

Page 201: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 193

193

• Determinar tolerancias de diseño • Cuantificar la calidad de diseño • Optimizar los proceso de manufactura • Comparar los costos de manufactura y los costos por pérdida de calidad

Supongamos que el valor nominal represente la condición ideal de la meta. Este seria

el caso, por ejemplo, de la impedancia característica de un conector, la cual debería ser igual a la del cable coaxial con el que se conecta. Taguchi supone que si un elemento tiene un apartamiento (xi-m) de la meta, el mismo da origen a una pérdida

( )2. mxkL ii −= por lo cual considerando una población n de equipos, para los mismos tendremos un valor medio de pérdidas [ ] ( )[ ]2

1

2 .)(1. mXEkmxn

kLELn

ii −=−== ∑

que es una característica del diseño, que puede expresarse en la forma,

( )

⎟⎟⎠

⎞⎜⎜⎝

⎛+−=

⎟⎟⎠

⎞⎜⎜⎝

⎛+⎥

⎤⎢⎣

⎡−=+−=

∑∑∑

22

2

1

2

1

22

..21.

1.21.21.

mxmxn

k

mxn

mxn

mmxxn

kL

i

n

ii

n

ii

Luego, sumando y restando en ( 46) el cuadrado del valor medio de x, resulta

( ) ( )

( ) ( ) ( )[ ]222

1

2

222

1

2

.1.

..21.

mxkmxxxn

k

mxmxxxn

kL

n

i

ii

n

i

−+=⎟⎠

⎞⎜⎝

⎛−+−=

⎟⎠

⎞⎜⎝

⎛+−+−=

σ

con lo cual las pérdidas medias quedan expresadas en función de la varianza y del corrimiento del valor medio. Para un lote de n unidades, se tendrá

[ ]22 )(. mxskL −+=

En esta expresión se reconocen dos factores de pérdidas: la dispersión y el corrimiento de la meta, y dado que ambos tienen el mismo peso, actuando solo sobre uno de ellos, el otro queda como un limite para las pérdidas.

En ciertos casos puede que lo deseable para la meta sea un valor nulo. Este seria el caso por ejemplo de la resistencia de contacto en un conector, en tal caso la función de pérdidas tomaría la forma

( )[ ]22. xskL −= o que la mejor condición del parámetro es el valor más alto posible. Este seria el caso, por ejemplo, de la resistencia de aislamiento entre pines de un conector. Conviene en tal caso trabajar con la característica inversa, para el ejemplo, con la conductancia en vez de la resistencia.

Quizás la mayor debilidad de la función de pérdidas es que evalúa en forma conjunta la dispersión y el corrimiento, cuando su reducción exige esfuerzos diferentes. Trabajar sobre la dispersión requiere actuar sobre muchos factores, mientras que el corrimiento exige operar con uno o un número muy reducido. Para el proceso de mejora, Taguchi propuso una metodología, conocida como diseño robusto, que trata en forma independiente la variabilidad y el corrimiento de la meta. Su idea es maximizar lo que el denomina relación señal a ruido, entendiendo como señal al valor medio que resulta del proceso y como ruido la variabilidad.

(44)

(46)

(47)

(48)

(49)

(45)

Page 202: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad

194

194

Diseño robusto

El diseño robusto busca reducir las pérdidas debidas a los apartamientos de la meta o valor ideal de la característica. Básicamente podemos pensar que se dan tres tipos de factores que contribuyen al apartamiento, denominados factores de ruido, a saber: • Factores externos, que son factores ajenos al producto, tales como la temperatura, la

humedad, el polvo, vibración, errores humanos, etc • Imperfecciones de manufactura, que provocan variaciones en los parámetros de unidad a

unidad, los cuales son inevitables en cualquier proceso de fabricación. Por ejemplo el valor nominal de un resistor es de 10 kΩ, pero la medición de uno particular arroja 9.97kΩ

• Degradación de características con el uso, que hacen que si bien inicialmente el producto esta en la meta con el tiempo se vaya apartando

El diseño robusto busca controlar estos factores de ruido, buscando determinar los

valores de diseño de tal modo de minimizar la sensibilidad a los mismos. Es en la etapa de diseño donde deben ser considerados estos factores, tratando de establecer diagramas circuitales y procesos de modo tal que sea posible minimizar los apartamientos respecto a la meta y hacer que esto sea posible operando con altos valores de tolerancia para las variables del proceso. En la concepción de Taguchi el proceso productivo puede verse como un bloque que produce una respuesta (y ) cuando se encuentra sujeto a distintas señales ( s ) y factores de ruido ( x ), figura 24.

La respuesta y puede verse como función de:

• Señales, s, es decir, las acciones que desarrolla el usuario, por ejemplo, pulsando un botón

• Factores de control, z, que son los elementos responsabilidad del proyectista para lograr que el producto produzca la variabilidad deseada

• Factores de ruido, x, que son los factores no controlados o no controlables • Factor de escala, SR, cuya función es correr el valor medio de la respuesta

Si la función de diseño se expresa en la forma

),,,(),,(),,,( SRzsxeSRzsgSRxzsf += donde g(s,z,SR) es la función deseada, entonces el diseño debería :

• Definir los valores de z para maximizar la parte predecible frente a la no controlable; o sea maximizar la relación señal a ruido

• Llevar la parte predecible a la meta, ajustando algún elemento o factor de escala, SR Supongamos por ejemplo que la relación entre el valor medio y el desvío sea constante e independiente del valor medio, lo cual se verifica en muchos procesos o características. Por ejemplo puede suponerse que para un resistor el máximo desvío respecto a su valor nominal (Rn) esta vinculado directamente con el desvío estándar en la forma

σ.5=∆± R o sea

Fig.24

(50)

(51)

yrespuesta para el

usuario

f(x,z,s)

x Factoresde ruido

factoresde control z

sExcitacióndel usuario

Factor deescala

SR

Page 203: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 195

195

5.

5nR

tR=

∆=σ

de modo que resistores de igual tolerancia ( t ) verifican el supuesto. Supongamos ahora que como resultado del proceso se obtenga un valor medio dado para y, y que m sea la meta a cumplir, siendo el factor de escala, en tal caso,

ymSR =

que si suponemos es aplicado sobre la media se satisface la meta. En tal supuesto, se afectara el desvío estándar, llevándolo a s

ym

ymSRn ... === σσσ

Luego, dejando de lado el factor k, la función de pérdidas queda expresada por

( )2

22

22 ..)0(

y

smsymL =

⎥⎥

⎢⎢

⎟⎟⎠

⎞⎜⎜⎝

⎛+=

y dado que m es la meta, minimizar la función de pérdidas es lo mismo que maximizar la relación

( )2

2

sy

NS

= que mide la relación entre el valor medio de la señal, 2)( y , y el ruido, s2, o variabilidad en las características del producto. Comparación entre capacidad de proceso y la función de pérdidas Se ha visto que tanto la capacidad de proceso como la función de pérdidas permiten evaluar la calidad de un producto. En el primer caso alineamos el producto con la “voz del proceso”, y en el segundo alineamos la “voz del proceso” con la “voz del cliente”. Nos proponemos analizar cual de las dos formas es mejor índice de calidad.

Si la meta esta centrada en el valor medio de la tolerancia, o sea

2minmax EE

m+

=

fijado el desvío máximo,

2minmax EE

E−

=∆

es, EmE ∆+=max

y en tal caso,

xxpk

XEmXEC

σσ .3.3max −∆+

=−

=

Si todos los valores se normalizan respecto al apartamiento máximo ∆E, dividiendo numerador y denominador por ∆E, resulta

( )σ

µσ .3

1.3

1 −=

∆−−=

EmXC pk

Por otro lado, la función de pérdidas esta dada por

( )[ ] [ ]22222 ... µσσ +∆=−+= EkmXkL x

que puede también ser normalizada con respecto al valor k.∆E2, sin pérdida de generalidad alguna. Las figuras 25 y 26 muestran los valores del desvío estándar y del apartamiento de la meta para distintos valores de Cpk y L. Puede observarse que mientras que la función de pérdidas L da una buena indicación del apartamiento de la meta, o de la condición ideal, Cpk no es un buen indicador en tal sentido.

(52)

(53)

(54)

(55)

(56)

(59)

(57)

(58)

(60)

(61)

(62)

Page 204: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad

196

196

Emin Emaxm

En otras palabras, procesos con muy baja variabilidad, pero con gran apartamiento de

la meta, si se evalúan con la función de pérdidas deberían ser descartados, mientras que con el Cpk pueden ser considerados como muy buenos. Es decir, si la variabilidad es una función de densidad delta de Dirac, limite de la función gaussiana para σ→0, ubicada muy próxima al valor extremo tolerado por la especificación, daría para Cpk un valor infinito, que es la mejor figura de merito posible; mientras que evaluado el proceso en base a la función de pérdidas se obtendría un valor muy alto, indicativo de un mal producto. En realidad, esto podría ser visto así: Un producto con una característica como la indicada en la figura 27 sería indicativa de un excelente proceso, y tendría un índice Cpk muy alto, teóricamente infinito; pero evaluada en base a la función de pérdidas tendría un valor similar al de un producto que esta en el limite del rechazo: bastaría con solo tomar un valor de ∆ suficientemente chico. Es decir, Cpk es un buen indicador de proceso pero no de producto. Es decir, se ve que el Cpk se puede aumentar tanto como se quiera actuando solo sobre la variabilidad, mientras que en la función de pérdidas es necesario actuar sobre ambos factores, la media y la variabilidad. Por otro lado, el valor de Cpk depende de la variabilidad del proceso y del rango de la especificación, no así la función de pérdidas. La iniciativa seis sigma

En el ambiente industrial se ha considerado por muchos años como límite para la variabilidad el criterio de las 3 sigmas, lo cual, como se supone una distribución normal, implica aproximadamente 3 defectos cada 1000 unidades. Esta es una posición conformista, contrapuesta a la concepción de Taguchi, que supone esfuerzos continuos para acercarse a la meta y achicar continuamente la variabilidad en las características de los productos. Para estar en línea con este enfoque se ha propuesto el método de las seis sigmas, el cual plantea como meta de tolerancia total 12σ. Esto implica pasar de aproximadamente los 3 defectos por mil a 3 defectos por millón (3 ppm). Esta iniciativa fue impulsada con éxito por Motorola a través de su Motorola´s Six Sigma Black Belt Program, y prontamente fue adoptada por la mayoría de las grandes corporaciones, extendiéndose su aplicación no solo a productos, sino también a servicios y a todo tipo de operaciones. La iniciativa de las seis sigmas de tolerancia por lado supone que de los 12σ en total, 3σ son asignados al descentrado de la media respecto al valor objetivo y 9 σ a la dispersión, figura 28. Bajo esta óptica, para mantenerse dentro de la iniciativa seis sigma, la capacidad de

Fig.27

Fig. 26 Fig.25

Page 205: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 197

197

proceso debiera valer como mínimo

5.169

==σσ

pkC

Si bien la adopción de la meta de las seis sigmas implica reducir la variabilidad total que pueden tener las características de un producto, y se acota la variación de la media, se diferencia de la metodología de Taguchi en que en esta, mediante la función de pérdidas, ambas resultan combinadas en un solo factor. Es decir, el método seis sigma sigue orientado a capacidad de procesos, y puede verse simplemente como una propuesta que busca satisfacer una mayor exigencia en la capacidad de proceso.

Cuando una empresa adopta esta iniciativa, lo que en realidad esta indicando no es solo que su meta principal es dar plena satisfacción a sus clientes, sino que busca además disminuir pérdidas innecesarias. Pero, un límite de 12 sigmas implica mayores esfuerzos en el diseño y la manufactura, e instrumental de control acorde a la mayor resolución con que debe medirse, mayores cuidados en la evaluación, y un gran esfuerzo dedicado a la mejora continua para alcanzar las metas propuestas. La meta de las seis sigmas presupone que la variabilidad del producto es susceptible de mejoramiento mediante el cambio de algunos de los elementos o de los procesos. La iniciativa no consiste simplemente en introducir una nueva meta, propone además una metodología de trabajo para alcanzarla, basada en los cinco pasos siguientes:

1. Definir. Como primer paso se debe definir cuales son las características importantes para el cliente, y los factores de los que dependen

2. Medir. Se deben instrumentar las mediciones y recolectar los datos 3. Analizar. Se busca convertir los datos en información, con la finalidad de obtener un

mayor conocimiento del producto y de los procesos: saber cuales son los factores de mayor peso que son causa de problemas o defectos

4. Mejorar. Se desarrolla una solución al problema, introduciendo los cambios en el producto o los procesos. Se evalúan luego los resultados de los cambios, y de juzgarse necesario se proponen nuevos cambios

5. Controlar. Cuando el proceso esta conforme con el nivel deseado de un modo predecible, el mismo es puesto bajo control y monitoreado para asegurar que no se produzcan cambios inesperados.

Los cinco pasos seis sigma, comúnmente conocidos como DMAIC ( Define, Measure, Analyze, Improve, Control ), parten del supuesto de que la mejora en la variabilidad conlleva siempre, además de una mayor satisfacción del cliente, una mejora para la empresa. Es decir, el objetivo es obtener el máximo mejoramiento con la mínima inversión, buscando que los ahorros logrados mediante las mejoras superen el costo derivado de introducir dichas mejoras. La idea es reevaluar el valor agregado de algunos elementos, mejorándolos, cambiándolos o simplemente eliminándolos.

Fig.28

(63)

p(X)

1.5 σ9 σ

6 σ∆E

En1.5 σ

p(X)

1.5 σ9 σ

6 σ∆E

En1.5 σ

Page 206: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad

198

198

Verificación de la calidad

El control de calidad es la actividad técnica y administrativa mediante la cual se miden las características de calidad de un producto, comparándolas contra su especificación o los requisitos establecidos, y su finalidad es tomar acciones apropiadas cuando exista una discrepancia entre el funcionamiento efectivo y el esperado. En electrónica, dada la gran cantidad de características de los componentes usados, la inspección deberá limitarse a comprobar solo las especificaciones que sean relevantes para la aplicación, apuntando a:

• la corrección ( en control estadístico de procesos ) cuando las inspecciones se hacen en línea con los procesos, ejecutándose en tiempo real,

• la aceptación o el rechazo ( en control estadístico de calidad ), cuando las inspecciones se realizan sobre partidas o lotes, a la entrada o salida de procesos

El control de calidad busca primariamente detectar desvíos respecto a las metas, y

minimizar o eliminar toda posibilidad de despachar productos que no están conformes para el uso. Para tal fin se realizan monitoreos ( control estadístico de proceso ) e inspecciones (control del 100% o control estadístico de calidad ). Trabajar con métodos estadísticos para el control implica aceptar un índice de defectuosidad no nulo. La única manera de obtener un 100% de calidad es a través de inspecciones 100%, partiendo del supuesto de que sea posible una inspección perfecta. Algunas empresas que realizan inspecciones del 100%, como un modo de prevenir posibles errores, someten adicionalmente los productos a una inspección de muestreo, como un control del método de control. La inspección 100% implica un aumento de costo muy grande, pues, en vez de dividir el costo de la inspección de algunas muestras por el total del lote, cada pieza carga con el total del costo de inspección, pudiendo en tal caso el costo de inspección superar al costo de fabricación.

Si la inspección es manual, la inspección del 100% no es garantía del 100% de calidad, y lo peor es que el error podría llevar a rechazar elementos buenos. Solo una inspección automática puede garantizar un 100% de calidad, y su mayor beneficio resulta cuando esta integrada al proceso productivo.

La inspección no debe verse exclusivamente como una tarea dedicada tan solo a segregar las partes malas que resultan de un proceso. Las inspecciones pueden realizarse con objetivos más amplios, a saber:

• asegurar que los requerimientos propios y del usuario están conformes • asegurar que los productos o materiales no conformes que sean identificados en tal

estado: o no puedan ser usados, o solo puedan ser usados si media acuerdo con el cliente, recategorizandolos y

suministrándolos como elementos subestándar o puedan usarse mediando una concesión del cliente o sean retrabajados o reparados antes de ser liberados para el uso o se puedan recuperar aquellas partes que permitan el reuso, dado su valor, si

se puede asegurar que su estado inicial se mantiene ( por ejemplo, un dispositivo montado sobre un zócalo )

o sean retirados de uso si hubieran sido indebidamente despachados, como medida de contención

• identificar y documentar las disconformidades, determinando la causa raíz que permita definir las acciones correctivas/preventivas adecuadas

• servir de herramienta para la mejora continua de la calidad de proceso

El proceso productivo opera sobre los insumos de entrada siguiendo procedimientos establecidos para obtener un producto de salida que responda al diseño, figura 29. Una vez validados los dispositivos y procedimientos que definen la operación, se supone que estos

Page 207: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 199

199

Costo de control

permanecerán estables, y por tanto en principio solo habrá causas comunes de variabilidad; la salida de proceso resulta en tal caso mayormente dependiente de los insumos de entrada. Admitiendo para los componentes de entrada cierto nivel de defectuosidad, esto tiene consecuencias diversas:

• Obliga a llevar el diseño en base a metas de calidad • Requiere que en el diseño se haga la selección de componentes y demás insumos

considerando el nivel de defectos con que es suministrado cada componente • Obliga a que en alguna etapa ( en la entrada, durante el proceso, al final, o como

servicio de postventa) se deban eliminar los componentes defectuosos • Acarrea la inmovilización temporaria de elementos buenos causada por los defectuosos

No siempre es posible el control del 100% de la funcionalidad por razones de costo y tiempo. Este es el caso por ejemplo de circuitos integrados LVSI de alta complejidad, figura 30; en otros casos directamente no es posible la inspección porque la misma altera la capacidad de uso del dispositivo. En este sentido, según sea su capacidad de control, los productos entran en una de las dos categorías siguientes:

• productos que pueden ser inspeccionados y comprobados antes de ser lanzados al uso, • productos en los cuales la comprobación o inspección plena no es posible porque

o inhibiría su uso futuro ( por ejemplo circuitos integrados OTP), o porque implicaría alterar la característica, dañando el producto. (básicamente

productos con capacidad para desarrollar una sola misión), o es una parte de un sistema mayor, y requiere de este para su prueba plena o el control total es muy oneroso.

El control de proceso se incorpora a lo largo del flujo de manufactura según

convenga, y específicamente en los nodos críticos del mismo. Las normas identifican tres etapas de inspección:

• inspección de entrada de materiales • inspección de procesos • inspección final previa a la liberación para el uso

La inspección de entrada normalmente se ve dificultada por el elevado volumen de

componentes que integran un equipo electrónico, y el elevado volumen de producción. Al descartar un control del 100% en los insumos de entrada, las alternativas son :

• Confiar en el proveedor ( se supone que solo se trabaja con proveedores calificados ) • Controlar estadísticamente los insumos

Cuando se trabaja con proveedores reconocidos, el control de entrada al proceso

podría ser innecesario dado que el nivel efectivo de defectos esta por lo general varios ordenes de veces por debajo del declarado. Solo si existiera desconfianza del proveedor, o sobre los elementos, quedaría justificado el empleo de control. Con proveedores calificados solo excepcionalmente se justificara el control de insumos. La cláusula 9.8 de la guía ISO 9004-1 exige sin embargo que se lleve un registro de la calidad en el momento de la recepción, que

ProcesoInsumos

Procedimientos

Producto

Fig.29 Fig.30

Page 208: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad

200

200

Proceso ProcesoProceso

Inspeccion

muestras

Proceso

Inspeccionrechazados

aceptad

Proceso Inspeccion

permita valorar la tendencia histórica en el desempeño del proveedor. La norma QS-9000, antecesora para la industria automotriz de la ISO-9000, acepta valerse de garantías y certificaciones. La decisión, finalmente, pasa por diferenciar entre:

• Proveedores calificados: Los elementos suministrados por los proveedores que están en este estado son evaluados previos a su uso en producción. El proveedor debe demostrar que los productos tienen adecuada calidad y que opera bajo un sistema de calidad antes de pasar a integrar el listado de proveedores calificados

• Proveedores certificados: Los proveedores calificados que consistentemente demuestran altos niveles de calidad son candidatos para entrar en el nivel de proveedores certificados. Los materiales suministrados por estos proveedores no están sujetos a ningún tipo de inspección de entrada. Los proveedores certificados después de una evaluación inicial quedan sujetos solo a evaluaciones periódicas

En todos los casos, cada lote de producción debe ser identificado por un número único que se mantiene en todos los pasos del flujo de manufactura para permitir la trazabilidad.

Según el momento en el que se hace la inspección de proceso cabe distinguir entre:

• inspecciones fuera de línea • inspecciones en línea /en proceso • inspecciones en línea /post-proceso

los tres tipos están indicados en la figura 31.

La inspección fuera de línea esta separada del proceso productivo, con un retardo entre el proceso y el momento de la inspección. La mayoría de las inspecciones manuales entran en esta categoría. Este tipo de inspección esta motivada porque:

• la capacidad del proceso esta bien dentro de la tolerancia de diseño • hay un gran volumen de producción en un tiempo muy corto • el proceso es estable y con bajo riesgo de sufrir causa asignables • es alto el costo de inspección frente a la pérdida ocasionada por las partes defectuosas

La alternativa es una inspección en línea, la cual se hace a medida que las partes están siendo fabricadas, y es por ello la que aporta mayor ventaja: permite variar el proceso y corregir de inmediato los problemas de calidad.

Usualmente, en la inspección en línea /en proceso el proceso y la inspección son simultaneas. Esto implica comprometer en la calidad al mismo operario. Cuando no son posibles las inspecciones en línea /en proceso, o cuando no es posible el 100% de inspección, la alternativa es la inspección en línea /post-proceso. En ese caso, la inspección se realiza en forma inmediata al proceso. La desventaja es que la acción correctiva tiene un retardo: influirá recién en los siguientes elementos que entran en proceso.

En la inspección en línea /post-proceso caben dos posiciones extremas:

• inspección distribuida, con varios puntos de inspección a lo largo de la línea • inspección final, en la cual se controla solo el producto final

La primera opción permite identificar los problemas más tempranamente, e introducir las acciones correctivas como respuesta. La manufactura electrónica requiere contar con un sistema distribuido, pues aun siendo muy bajo el porcentaje de defectuosidad, como se trabaja

Fig.31

Page 209: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 201

201

con una cantidad muy grande de componentes, potencialmente se tiene una alta cantidad de defectos en cada proceso. En una plaqueta que lleva montados por ejemplo 100 elementos puede haber varios miles de puntos de soldadura, por lo que aun siendo baja la defectuosidad por soldadura, puede arrojar una elevada defectuosidad para la plaqueta.

Los procedimientos y el diagrama de flujo de proceso identificaran la inspección requerida de materiales y elementos en cada paso del proceso. Los detalles del proceso y de los procedimientos específicos usados en la manufactura deben ser guardados en la historia del producto, a los efectos de poder identificar posibles problemas de campo con las condiciones del proceso. Para el caso de productos OEM (original manufacture equipment ), el tiempo de mantenimiento de estos registros, es normalmente acordado con los clientes.

Los productos ya manufacturados, aun estando el proceso bajo control, pueden tener no conformidades, por lo cual es importante que solo puedan despacharse para su uso o instalación aquellos productos que han completado la etapa de inspección, y resultan conformes con lo establecido en el plan de calidad. Esta es la función de la inspección final, en la cual se involucra la inspección y prueba del producto antes de su despacho al cliente. Esta alternativa se apoya detrás del concepto de que es mas económico y efectivo realizar todas las inspecciones en un solo lugar, en vez de tenerlas distribuidas sobre toda la planta, y además, puede pensarse que ofrece una mayor protección al cliente por ser previa a la entrega del producto.

Control estadístico de calidad (SQC)

Mediante la evaluación de unas pocas muestras se pueden hacer estimaciones estadísticas de una población. En el presente caso interesa comprobar que la proporción de defectuosos d existentes en una población esta por debajo de un nivel considerado como aceptable, el cual es denominado AQL (Acceptance Quality Level). El plan de muestreo idealmente debiera ser tal que la probabilidad de aceptar el lote fuese 1 si d ≤AQL, y cero si d > AQL, figura 32. Es decir, el plan debiera discriminar los lotes buenos ( d ≤AQL) de los malos sin error alguno, lo cual solo es posible inspeccionando el 100%. Como no es posible inspeccionar el 100% de los elementos, habrá que admitir cierto riesgo de aceptar lotes con un nivel de defectuosos mayor que el considerado aceptable, bajo la condición de que si el valor de defectuosos es superior a un máximo nivel de defectos tolerados en el lote (LTPD) se produzca el rechazo. Entre ambos valores, el AQL y el LTPD, se admitirá una transición, figura 33, en la cual la probabilidad de aceptación debiera decaer desde una Pa=1 para d=AQL, a cero para d=LTPD.

La curva real, denominada curva de operación, se establece fijando los riesgos de rechazar el lote, considerando que el nivel de defectos es superior a AQL cuando en realidad es menor, o de aceptar el lote pensando que su nivel de defectos es menor a LTPD cuando en realidad es mas alto. Estos riesgos han sido establecidos en las normas como un 5% ( α= 5% ) y 10% (β = 10 %), denominados riesgos de vendedor y comprador, respectivamente, figura 34. Sea h(i,N,n,D) la probabilidad de hallar i defectuosos en un lote de N elementos que contiene D=d.N defectuosos, y del cual se extraen y evalúan n muestras elegidas en forma

d

Pa(d) 1

AQL

Lotes maloLotes buenos

Fig.32

AQL LTPD d

Pa(d) 1

Fig.33

Page 210: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad

202

202

n=32c=2

n=125c=8n=77

c=4

α

β

= LTPDLTPDAQL =AQLa c ba

aleatoria, entonces si el criterio de aceptación permitiera hasta r elementos defectuosos, la probabilidad de aceptación estará dada por

∑=r

aceptacion DnNihP0

),,,( Como la distribución hipergeométrica h(i,N,n,D) es poco amigable, es mas practico

trabajar con la distribución binomial, que es una buena aproximación a la misma si N es mucho mayor a n, y en tal caso, ( ) cncn

c ddcP −−= )1.(.)( o bien valerse de una forma mas simplificada, la distribución de Poisson,

( )!..)(

cedncP

ndc −

=

Las expresiones (65) y (66) permiten obtener la probabilidad de que en n muestras extraídas de un lote con una proporción de defectuosos d resulten exactamente c defectuosos. Supongamos aplicable la aproximación binomial. En tal caso se puede calcular la probabilidad Pa de que si el lote tiene un nivel de defectuosos AQL o inferior se encuentren a lo sumo c defectuosos en una muestra de n elementos extraídos en forma aleatoria de un lote varias veces superior al tamaño de la muestra. Si como criterio de aceptación se impone que Pa deba ser igual o superior a un valor prefijado (1-α), entonces, en el limite, la probabilidad de aceptación estará dada por ( ) ( ) ini

c

i

niaceptacion AQLAQLP −

=

−=−= ∑ 1.).(10

α

Al mismo tiempo se desea asegurar que si el nivel de defectuosos fuera igual o superior a un valor dado (LTPD) la probabilidad de aceptación ( β ) sea muy baja, o sea

( ) ( ) inic

i

niaceptacion LTPDLTPDP −

=

−== ∑ 1.).(0

β

Definidos α, β, AQL y LTPD, se trata de encontrar los valores de n y c que satisfacen las ecuaciones anteriores. Esto define un plan basado en una muestra única, y su curva característica, figura 34. Fijado el valor de AQL, el plan debiera proveer el mismo nivel de discriminación, y ser independiente de la cantidad de elementos que formen el lote, de modo que los resultados puedan compararse entre si. Esto no ocurre si los planes se basaran en la inspección de un porcentaje de la población. Por ejemplo, trabajando con dos proveedores, donde el principal suministra el 80% y la segunda fuente el 20% restante, si se hiciese un control basándose en los porcentajes de sus entregas, por ejemplo extrayendo un 10%, ambos controles tendrían curvas de operación distintas, figura 35. El resultado es que el proveedor minoritario aparecería favorecido, debido a que para igual nivel de defectos reales tendría menos rechazos, induciendo a pensar equivocadamente que suministra con un mejor nivel de calidad.

Fig.35

(68)

(67)

(66)

(65)

(64)

Fig.34

Page 211: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 203

203

Visto de otro modo, la curva de operación es poco sensible a N, tal como muestra la figura 36, pero muy sensible a n y c, como muestra la figura 37.

Lo planes de muestreo se han normalizado, tomando como referencia la norma militar STD-MIL-105E, como es el caso de las normas ANSI/ASQC Z1.4 y la ISO/DIS-2859. Los distintos planes de muestreo difieren en la discriminación, relación LTPD/AQL, y quedan totalmente caracterizados por su curva de operación; conociendo esta se puede obtener la probabilidad de aceptación para cualquier nivel de defectuosos. Los planes son diseñados para mantener la misma curva de operación, o bien proveer una dada discriminación. Las inspecciones se dividen en dos grupos:

• Inspecciones especiales, que se aplican cuando no es posible el uso de las generales, bien sea por escasez de recursos o de tiempo, y que por tal razón solo son de aplicación excepcional, dado que proveen baja discriminación

• Inspecciones generales, que son de aplicación habitual, y en las cuales a su vez se diferencian tres tipos de muestreo: riguroso, normal, y reducido.

A su vez, los indicios de calidad determinaran cual de los tres tipos de muestreo siguientes conviene aplicar:

• Muestreo simple: la decisión se basa en los resultados de una única extracción muestral,

• Muestreo doble: para llegar a la decisión puede ser necesario hacer hasta dos extracciones de muestrales,

• Muestreo múltiple: a la decisión se puede llegar después de haber realizado varias extracciones muestrales, tantas como nueve.

Decidir el plan mas adecuado resultara de consideraciones de riesgo y esfuerzo. Cuando se tiene gran confianza en el proceso o el proveedor, en función de ensayos anteriores, se recurre a ensayos reducidos. Lo contrario si hubiera desconfianza o falta de antecedentes. Lo mismo es valido respecto a la selección entre ensayos de muestra única, doble, o múltiple.

Los planes de doble o de muestreo múltiple se emplean cuando existe gran confianza de que el producto supera las especificaciones o una gran desconfianza de que las cumpla; su utilidad se debe a que si el número de defectos se halla muy alejado de la especificación el ensayo se abrevia; pero, la penalización es que si la calidad se acerca a la meta se hace mas largo y por ende mas costoso que el plan de muestra única. Este resultado muestra la ventaja de estar bastante por encima de la meta, dado que de ello resulta un menor esfuerzo de verificación. El problema que se plantea entonces es como definir el nivel de defectuosos admitido en el proceso de modo que el resultado de la primera muestra sea definitorio. Visto de otra forma: conviene realizar esfuerzos en la mejora de proceso ( es un esfuerzo único ), en vez de invertir permanentemente en esfuerzos de verificación.

Fig.37 Fig.36

Page 212: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad

204

204

Concepto

Diseño

Planificacion de laproducción

Producción

Desarrollo deProducto

Prevención

Corrección

Aseguramientode la calidad

La función calidad en el diseño: Familia ISO 9000 El aseguramiento de la calidad ha evolucionado con el tiempo, pasando de una etapa reactiva, donde, mediante inspecciones, se pretendía identificar y luego corregir los defectos, a una metodología proactiva de aseguramiento de la calidad, que busca prevenir actuando en las fases de diseño y desarrollo, más que corregir en la fase de producción. Para ello se debe actuar desde la etapa más temprana, la fase conceptual o de definición del producto, tratando de ver los problemas que las decisiones del diseño pueden originar en las fases posteriores del ciclo del producto, figura 38, y sin limitarse exclusivamente a los aspectos técnicos.

La ISO (International Organization for Standardization ) hacia los finales de la década de los 80 emitió un conjunto de normas especificas dedicadas al aseguramiento de la calidad, conocidas como la serie ISO 9000. Estas normas formaban una familia que abarcaba todas las fases, desde los principios o lineamientos, pasando por la administración y los modelos de gestión de calidad aplicables en las distintas fases del ciclo de vida de un producto. Estas normas se diferencian por el ámbito de aplicación, siendo la ISO 9001 aplicable cuando:

a) se requiere un diseño y los requerimientos del producto están expresados en términos de desempeño, o bien es necesario establecerlos, y

b) es posible obtener confianza de conformidad del producto por adecuada demostración de la capacidad de diseño, desarrollo, producción, instalación y servicio

mientras que la ISO 9002 debe aplicarse si:

a) los requerimientos del producto están especificados en términos de un diseño establecido o de una especificación, y

b) puede obtenerse confianza en la conformidad del producto por demostración adecuada de capacidad de producción, instalación y servicio

El conjunto de normas ISO 9000:1994 se adaptaba bien a un sistema productivo, y en particular sus 20 elementos son la base para diseñar los manuales de calidad. Como su extensión a otros sistemas no era tan directa, esto dio motivo a una nueva revisión orientada a procesos. Esta última revisión corresponde a diciembre del 2000, estableciéndose diciembre del 2003 como fecha limite para la transición a la nueva versión por parte de aquellas empresas que hayan obtenido la certificación en base a la ISO 9000:1994.

Los beneficios mayores que aporta esta nueva revisión son:

• Aplicabilidad a todas las categorías de productos, en todos los sectores y para organizaciones de todos los tamaños

• Una nueva estructura orientada al proceso, y una secuencia mas lógica del contenido, buscando una mayor vinculación entre el sistema de gestión de calidad y los procesos de la empresa

• Introducción del proceso de mejora continua • Incremento del papel de la dirección de la empresa y de su compromiso para la

mejora, y establecimiento de objetivos medibles en todas las funciones importantes • Mayor simplicidad y cambios en la terminología, buscando una mas fácil

interpretación • Reducción de la documentación requerida

Fig. 38

Page 213: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 205

205

ISO 9001 Fundamental

Sectorial

Empresa

Parte

Producto

Masespecifica

Masgenerica

ISO/TR 16949

• Provisión de un traspaso mas natural hacia un mejor desempeño empresarial • Orientación hacia la mejora continua y la satisfacción del cliente • Compatibilidad con otros sistemas • Provisión de una base consistente dirigida a las necesidades y el interés de sectores

específicos ( tales como el de la industrias de electromedicina, telecomunicaciones, automotriz, etc )

• Mejor consistencia entre la ISO 9001 y la ISO9004, de modo de ir mas allá de los requerimientos, buscando mejorar el desempeño de la empresa

• Aumento de la compatibilidad con el estándar de sistema de gestión ambiental • Consideración de las necesidades y los beneficios de todas las partes interesadas

En la ISO se considera proceso a cualquier actividad que recibe entradas y las

convierte en salidas, figura 39. Por tanto, todas las actividades dedicadas a la fabricación de productos o provisión de servicios son procesos. En su funcionamiento, una empresa requiere de muchos procesos intervinculados, donde la salida de uno sirve de entrada a otro proceso.

Debido a la falta de especificidad de la familia ISO-9000:1987, en 1994 los tres fabricantes más importantes de la industria automotriz de USA generaron la QS-9000 destinada a reemplazar todos los programas de calidad de sus proveedores. La ISO, viendo la necesidad de una mayor orientación sectorial, decide también emitir otros tipos de documentos normativos cuya finalidad es atender requerimientos particulares:

• Especificaciones publicas, las ISO/PAS (ISO Public Available Specification ) • Especificaciones técnicas, ISO/TS (ISO Technical Specification )

Por ejemplo, la ISO/TS 16949, de aplicación en el sector automotriz, requiere que sean considerados en el diseño un conjunto de requerimientos globalmente definidos en la ISO 9001, figura 40, y que esta especificación pormenoriza, tales como:

• Satisfacción del cliente • Mejora continua • Plan de negocios • Sistema de calidad • Mejoramiento de procesos. • Control del diseño • Entradas del diseño • Salidas del diseño • Optimización del diseño • Revisiones de Diseño • Verificación del diseño • Validación del diseño • Cambios en el diseño • Documentación

Fig.40

Transformacionentrada salida

Fig. 39

Page 214: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad

206

206

Costos de Calidad La falta de calidad se traduce en costos visibles y costos invisibles. Los costos visibles se pueden clasificar en:

• Costos por fallas: o Internos: originados en el proceso, que toman en cuenta los costos debidos a

desechos, retrabajos, controles adicionales, etc o Externos: que ocurren después del proceso productivo, y en los cuales deben

considerarse los costos de garantía, servicio de atención al cliente, devoluciones, contenciones, etc. Estos tienen mayor peso que los costos internos.

• Costos de prevención, que son inherentes a la estructura de calidad requerida para reducir los costos anteriores, planeamiento de la calidad y desarrollo de proveedores

• Costos de evaluación, que son los que resultan de aquellas actividades destinadas a evaluar componentes, proveedores, costos de homologación, validación, etc

Los costos invisibles resultan de la perdida de mercado, falta de aceptación y desprestigio; estos son costos muy difíciles de evaluar. La práctica de métodos preventivos para el aseguramiento de la calidad si bien se traduce en mayores costos iniciales, estos se ven compensados por los beneficios posteriores, figura 41, debido a elusión o reducción de costos que de otro modo aparecerían, a saber:

• costos de diseño, al eliminar costos de defectos debidos a errores del diseño • costos de corridas de preproducción por estar mas cerca de la meta • costos de interrupciones de proceso para la introducción de correcciones • costos de imagen, al mejorar la percepción de calidad en relación a la competencia

Un punto importante a tener en cuenta es que un error de diseño afecta a todas las unidades, mientras que un problema de manufactura solo a unas pocas unidades. Este esquema, viéndolo de otro modo, es planteado como la regla decimal, la cual sintéticamente expresa que cambiar unas pocas líneas en la fase de diseño tiene un costo que se mide en monedas, pero se

Fig41

Fig.42

desarrollo de productoarranque deproduccion

costo

beneficio

$

1

100

10

Costo por defecto

FMEA SPC

Desarrollo y planeamiento

Manufactura

ClienteSerie pilotoDesarrollo

Causa RaizHerramientasde calidad

Nivel en el cualse detecta el

defecto

definiciónespecificación

desarrollo

manufactura

campo $

Costos decorrección

Page 215: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad 207

207

incrementa notablemente si el mismo debe hacerse en la fase de producción, y peor aun si debe hacerse cuando el producto esta en manos del usuario, figura 42.

Por mucho tiempo la calidad estuvo asociada al control, con un enfoque reactivo, orientada básicamente a determinar los puntos de control y los limites de aceptabilidad del proceso de manufactura. Actualmente se hace una evaluación global del costo de la calidad, buscando determinar el sistema que lo minimice. Consideremos, por ejemplo, la conveniencia de implementar un control de recepción. Este análisis debiera considerar:

1. Costos por inmovilización de materiales. 2. Diferencias de costo debidas a reparación en el campo y en la fábrica, cuando el

defecto no pueda ser detectado en fábrica; o costo inherente al nivel en que se detecta la falla.

Mejoramiento de la calidad :Grafica de Pareto

Los controles no deben verse como un registro de resultados, sino más bien como una base para la introducción de mejoras. Para ello es necesario reconocer cuales son los defectos dominantes, y cuales sus consecuencias, y en función de esta clasificación proceder a priorizar el factor sobre el que se va actuar para lograr la mejora. Esta es la finalidad de las graficas de Pareto. Estas se basan en el axioma de que la mayoría de los problemas se concentran en muy pocas causas. De esto resulta el siguiente corolario: con la solución de muy pocas causas es posible lograr una mejora importante. Esto se resume en la siguiente regla: el 80% de los defectos queda concentrado en el 20 % de los diferentes tipos de defectos, figura 43.

La grafica de Pareto se obtiene ordenando los defectos según su frecuencia de aparición, lo cual da una distribución como la indicada, figura 44. El grafico evidencia los factores que deben ser primeramente considerados. Este diagrama lleva a un proceso que no tiene final: eliminados los problemas más importantes, van emergiendo otros que permanecían enmascarados. Este diagrama permite a la vez tener en cada momento una medida del progreso alcanzable, medida por la incidencia de los defectos dominantes. La agrupación de los defectos puede hacerse en orden a su importancia, considerándolos según la percepción del cliente, y categorizándolos y ponderándolos según sean:

• sin consecuencias, • con ligeras molestias, • indispone ( predispone mal ), • causa descontento y acarrea cargos de reparación, • de gravedad, por afectar la seguridad

Fig. 43 Fig.44

Grupos Defectos dominantes

% Defectos 80

20% 100%

Page 216: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Calidad

208

208

Mejoramiento de la calidad: Diagramas de covariación

El problema de la calidad gira alrededor de dos ejes:

• hallar los factores positivos, que determinan la bondad del producto • hallar los factores negativos, que determinan los defectos del producto

y desarrollar las herramientas que ayuden a mantener ambos bajo control, para lo cual es necesario conocer la causa que los origina. El camino, para ello, es la aplicación del método científico basado en el ciclo hipotetizar-validar. Para hipotetizar, sin duda, lo más importante, es la percepción del observador sobre el proceso. Las hipótesis se validan siempre mediante pruebas experimentales cuidadosamente realizadas para evitar conclusiones erróneas.

Con los datos obtenidos de los ensayos, por regresión, se busca hallar la vinculación de los diversos factores. Pero, a veces no es posible relacionar algunos efectos con una causa específica; en tal caso se debe ver si estos tienen alguna vinculación con otra variable (no necesariamente de causa-efecto), figura 45 y figura 46. Trabajando, con técnicas de diseño de experimentos, DOE, es que se alcanzan diseños más robustos.

Recién cuando se conocen las relaciones causa-efecto y las covariaciones, se puede decir que hay dominio tecnológico, dado que entonces se sabe que factores del proceso se deben mantener bajo control, y cuales monitorear. Mejoramiento de la calidad: Diagramas de causa-efecto

Con este diagrama se trata de establecer para cada defecto las posibles causas, y para estas a su vez, hallar con que otras causas están vinculadas, con la finalidad obvia de eliminarlas. Por su forma, esto lleva a un diagrama que se conoce como espina de pescado, figura 47.

La ventaja de este proceso es que pone en evidencia todas las causas, no solo las mas conocidas. Luego, cada una de ellas debe ser analizada, y eliminada del diagrama si no es un factor importante de defectos.

En este análisis se debe diferenciar entre factores:

• causantes • contribuidores • facilitadores

buscando con ello, cuando no sea posible eliminar la causa, al menos reducir o eliminar estos últimos factores.

Fig.47 D efecto

C ausas P rim arias

C ausas Secundarias

Fig.45 Fig.46

Page 217: Libro Materia

ciclo de vida

complejidad

1960 1970 1980 1990 2000

Desarrollo deproducto y de lamanufactura

Vigencia delproducto en elmercado

ciclo de vidatiempo

Manufacturabilidad

En teoría, no hay diferencia entre la teoría y la práctica. Pero en la práctica, si la hay

YOGI BERRA

La característica más importante de cualquier producto es su costo: Es lo que

determinara su inserción en el mercado. Cuando el producto esta orientado al mercado de entretenimiento habrá en juego grandes volúmenes de producción, y en tal caso los costos no recurrentes tendrán muy baja incidencia, importando mayormente el costo de manufactura, figura 1. En los productos orientados al mercado profesional priman exigencias de calidad, fiabilidad y disponibilidad, haciendo recaer en el diseño, y en especial en la validación, la mayor parte de los costos. El mercado militar, más concentrado y de menor volumen, impone condiciones de uso imprevisibles, importando la robustez y mantenibilidad, y su diseño se orienta fundamentalmente a minimizar el costo dentro del ciclo de vida.

Pero, independientemente del mercado al que este orientado el producto, el proyectista electrónico debe siempre enfrentar los dos siguientes desafíos, figura 2:

• ciclos de vida cada vez mas cortos • complejidad de los circuitos y equipos cada vez mayor

Lo primero implica que, para que el tiempo de vigencia en el mercado del producto

sea el mayor posible, figura 3, el tiempo de desarrollo debe ser cada vez más corto. Un modo de acortar el tiempo de desarrollo es enfocando el diseño según cual sea el factor limitativo. Esto llevo a acuñar el concepto del diseño orientado a X (DFX), donde X es cualquiera de los factores que más inciden sobre el producto (demoras y costos): manufactura, distribución, instalación, mantenimiento, etc. Términos tales como diseño para la manufactura (DFM), diseño para el ensamblado (DFA), diseño orientado a la testeabilidad, diseño orientado a la mantenibilidad, diseño orientado a la empaquetadura, etc. Llevaron a establecer modos de diseño que permiten eliminar operaciones innecesarias, demoras, errores, y una mayor eficiencia en la fabricación, la instalación, el mantenimiento, el despacho a plaza, etc.

$/un

idad

tiempo

diseño manufactura mantenimiento

Entretenimientotiempo

diseño manufactura mantenimiento

Profesionaltiempo

diseño manufactura mantenimiento

Militar

$/un

idad

$/un

idad

Fig.1

Fig.2 Fig.3

Page 218: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

210

210

Las técnicas de diseño proactivas y el empleo de herramientas para el diseño ayudado por computadora, que posibilitan la integración plena del proceso de diseño con el proceso de manufactura, hacen posible acortar los tiempos de desarrollo. La computadora ayuda en las primeras etapas del diseño: En la realización de simulaciones, diseño del circuito impreso, realización de planos mecánicos, etc., y disminuye la necesidad de prototipado. En particular, el diseño de circuitos impresos, y en especial la consideración de los efectos de las interconexiones entre los componentes, han tomado tal importancia y nivel de complejidad que ya no es suficiente basarse en algunas reglas básicas para su realización. Estas reglas, casi todas ellas incorporadas actualmente en los paquetes de diseño, incluyen como restricciones para el diseño las limitaciones propias de la fabricación de la placa (número de capas, anchos y separación entre pistas, etc. ), limitaciones para la disposición de los elementos ( áreas prohibidas, áreas con altura máxima de componentes, etc. ), limitaciones para el ensamblado (mínima separación entre componentes, orientación, ubicación, etc.), restricciones para la soldadura (tipo de tecnología, orientación de los componentes, etc. ) y requerimientos para la verificación de las placas (disposición de puntos de prueba, con posibilidad de generarlos a partir del esquemático ). Pero los diseños actuales requieren paquetes mucho más potentes, integrados a herramientas que permitan realizar por simulación análisis vibratorios, térmicos, de compatibilidad electromagnética y de integridad de señales, con la finalidad de abreviar los pasos de refinamiento y prototipado, y reducir los tiempos de desarrollo.

Sistemas de manufactura

El diseño deberá considerar el tipo de manufactura, diferenciando a cual de los tres tipos básicos corresponde el producto que se va a desarrollar:

• producto único, el proyecto termina con la construcción • por lotes, ( normalmente se produce a pedido, comercial o ventas empuja a

producción ) • producción continua, se usa JIT (just-in-time) (normalmente se produce conforme a un

plan; producción empuja a ventas)

ya que esto influirá entre otras cosas en :

• la selección de componentes • el tratamiento de las tolerancias • la adaptación de los procesos

Si se tratara de una producción continua, basada en el JIT ( JAT, Justo a tiempo ), es necesario cumplir la denominada regla de los cinco ceros:

• cero defectos de los procesos ejecutados • cero averías para procesos a ejecutar • cero inventario, produciendo solo lo que se necesita • cero demoras, a través de manufactura flexible y una rápida capacidad de respuesta • cero burocracia por eliminación de funciones innecesarias

y su cumplimiento estará influenciado por el diseño de producto. Cuando la producción es por lotes o continua, la misma se basa en un plan maestro,

denominado a veces MPS ( Master Production Schedule), el cual se apoya en un plan de requerimiento de materiales, el MRP ( Material Requirement Plan ). En el MRP se combinan inventarios, el listado de materiales emitido por ingeniería, conocido como BOM ( Bill of Materials ) y el plan de producción. Es decir, el MRP identifica el tipo de componente y la cantidad necesaria para la manufactura de un producto, el proveedor, los costos, existencias de inventario y fechas en las que se deben realizar los pedidos de compra para satisfacer el requerimiento de producción. Su meta es evitar demoras y bajar costos de fabricación. Esto

Page 219: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

211

211

Plan Maestro de Produccion(MPS)

(Master Production Schedule)Inventarios

Listado de Materiales(BOM)

(Biill of Materials)

Plan Requirimiento de Materiales(MRP)

(Material Requirement Planning)

Manufactura Integrada por Computadora(CIM)

(Computer Integrated Manufacturing )

requiere que los sectores de Ingeniería, Compras, y Manufactura operen con una base de datos unificada, parte integrante de un sistema de fabricación ayudado por computadora ( CIM), figura 4. Para ello es importante la integración del sistema de CAD para hacer posible que la etapa de diseño genere todos los archivos que requieren los distintos sectores: Ingeniería, Compras, Manufactura y Servicio Postventa.

La producción surge de un Plan Maestro, que establece el sector comercial. El listado de materiales (BOM) surge del desarrollo del producto. Es por ello importante que para la selección de un dado componente se consideren todos los aspectos que hacen a la manufactura y a su compra, como ser :

• Basarse en proveedores seleccionados • Basarse en componentes aprobados • Tener en cuenta demoras en la entrega ( lead time), • Considerar la reducción de costos por volumen, • Considerar los costos de compra.

Seleccionar un dispositivo cuya disponibilidad no quede asegurada, o es de alto costo, o poco adaptada a los procesos, o que sea nuevo, implicara retardos en el lanzamiento o la imposibilidad de satisfacer objetivos de costo para el producto.

Diseño orientado a la Manufacturabilidad

Un producto se dice que es manufacturable cuando es realizable utilizando los componentes, equipos, materiales y tecnología disponibles en el momento. La manufacturabilidad en si misma es una cualidad que pretende dar una idea de la facilidad con que un producto ha sido pensado y desarrollado para obtener la mayor productividad posible, y que ello redunde en un mayor beneficio, visto de ambos lados: del productor y del consumidor.

La productividad es la relación entre lo ingresado en un proceso de fabricación (insumos, mano de obra, materiales, componentes, tecnología) y lo que resulta al final del mismo, pudiendo la evaluación considerar al conjunto o un grupo de factores, o limitarse a uno solo. Para el análisis de productividad los aspectos fundamentales a tener en cuenta son:

• Concepción del equipo • Componentes y/o materiales empleados. • Procesos de armado o manufactura. • Testeabilidad o sistema de control.

El diseño incide sobre todos los factores, bien sea para aumentar o para desmejorar la productividad. Criterios generales que deben ser atendidos para mejorarla son:

• reducir al mínimo las partes requeridas ( menor costo de partes, de movimientos, y menor costo de ensamblado, )

• minimización de la variedad de partes; esto llevara a un mayor volumen de algunos tipos y consecuentemente puede implicar un menor costo de adquisición y almacenamiento

Fig.4

Page 220: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

212

212

P1 P3P2

Materiales y componentes

Retrabajos

C1Si SiSi

C2 C3

NoNoNoProductoterminado

• empleo de elementos preferidos, lo que implicara menores costos para la obtención y menores demoras en la entrega

• reducir el número de proveedores, y trabajar estrechamente con los mismos; encontrar y calificar un nuevo proveedor tiene un costo muy grande.

• diseño robusto con el cual se busca minimizar la sensibilidad frente a la variabilidad de los componentes; esto implicara menores rechazos de proceso

• eliminar en lo posible la disposición de elementos ajustables (mayores tiempos, errores y costos de manufactura )

• cuidar la especificación de los componentes a medida, buscando que esta sea completa y precisa

• atender todas las limitaciones de los componentes empleados, no solo las que hacen a su funcionalidad eléctrica, sino también lo que hace al manipuleo, almacenamiento, transporte, inserción, ajuste, soldadura, etc.

• eliminar, o cuando menos reducir los cambios de ingeniería; cada cambio implica un alto costo, que va más allá del costo de ingeniería, debido a que los cambios deben desparramarse en todo el sistema (producción, compras, servicio, etc.); este aspecto esta ligado a la validación del diseño y de los procesos.

Muchos problemas de manufactura ocurren debido a que el proyecto se organiza con ‘dueños’ o responsables por bloques. Debido a ello, la responsabilidad de diseño de las distintas etapas recae en grupos diferentes, sin adecuada coordinación, con desconocimiento de los elementos empleados en otras etapas, o bien resultan de reglas de diseño establecidas que llevan rutinariamente a soluciones tipo para determinados bloques, sin realizar un análisis previo de integración o valoración, con poca o nula efectividad en las revisiones de proyecto, y ausencia de análisis de ingeniería del valor. Un diseño para la manufactura debe buscar soluciones en las que los procesos sean:

• simples • a prueba de errores • repetibles, y por ende respondan totalmente a procedimientos documentados • definidos de modo que los componentes soporten la carga que le imponen el proceso • fáciles de controlar • de fácil manipuleo, tanto de elementos como de los productos terminados

y podrán estar orientados al :

• proceso, definidos estos como de tipo producto genérico, especialmente aplicable en producción por lotes

• producto, definidos los procesos como del tipo producto especifico, y aplicadas en líneas de producción continuas

En el primer enfoque, los ingenieros de diseño del producto y de los procesos cooperan con los operarios de montaje, técnicos de testeo, reparación y mantenimiento para lograr productos fácilmente producibles y mantenibles, figura 5.

Proceso 1 Proceso N

Determinacion del atributo para el diseño

Proceso de diseño

Fig.5 Fig.6

Page 221: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

213

213

En electrónica, la manufactura involucra tareas de :

• Inserción de componentes • Soldadura • Armado de subconjuntos • Control de proceso • Calibraciones • Verificación final ( Cargas y pruebas ) • Despacho ( empaquetado)

con una estructura de manufactura que responde al diagrama de la figura 6, donde los Pi representan los procesos y Ci los controles del proceso. El control en cada proceso permite:

• evaluar si un proceso de manufactura esta bien adaptado al diseño, para lo cual se usa el primer índice de calidad, conocido como FTQ (first time quality), que evalúa, a la salida de cada proceso, la proporción de unidades que no requieren retrabajo

• segregar productos no aptos • saber si el proceso se sale de control

El diseño puede y debe ayudar a lograr que el proceso de manufactura este bien

adaptado, seleccionando componentes que faciliten el montaje, la soldadura y el control, haciendo posible obtener de entrada una baja cantidad de rechazos y desechos. Los incumplimientos hallados en el control pueden deberse a:

• problemas de proceso: errores de montaje, malas soldaduras, ajustes deficientes, etc. • problemas de componentes: componentes defectuosos, o de alta variabilidad causada

por inadecuada selección de la tolerancia de los componentes

Conseguir altos índices de FTQ requiere proceder en dos pasos:

1. Seleccionar los materiales y componentes. 2. Diseñar el proceso correspondiente en función de los componentes seleccionados.

La desventaja de este método, es que el proceso se ve atado a la selección de

componentes. La otra opción es invertir los pasos:

1. Seleccionar el proceso. 2. Elegir los componentes y materiales según el proceso adoptado.

En la práctica se utiliza una combinación de estos métodos, dándosele prioridad a uno

ú otro, según convenga, y esto implica coordinar el diseño de producto y el diseño de manufactura. En cualquier caso, la incidencia del diseño en el primer índice de calidad es directa. Mejorarlo implica orientar el diseño del circuito y de la placa de circuito impreso por el lado de los procesos: el ensamblado, la soldadura, la testeabilidad, y la calibración, y considerar además una apropiada selección de tolerancia para los componentes.

Diseño para el ensamblado

Un dispositivo poka-yoke es un mecanismo o método que previene errores, básicamente de ensamblado. El termino poka-yoke proviene de las palabras japonesas "poka" “error inadvertido”, que cualquiera pueda cometer, y "yoke", prevención. El concepto se debe al ingeniero japonés Shigeo Shingo. Si bien el concepto se aplica para lograr procesos de manufactura manuales libres de errores, de por si es un concepto de diseño amplio, dado que en su mayoría los errores de ensamblado son consecuencia de un mal diseño del producto.

Muchos defectos son consecuencia de errores debido a que la tarea requiere cierto grado de concentración, o de habilidad, o bien esta basada en instrucciones confusas, o susceptibles de no ser bien interpretadas. Si el error es detectando al momento de producirse, puede ser corregido, y en tal caso no se produce el defecto.

Page 222: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

214

214

Shingo identifica tres tipos de inspección: • Inspección de criterio : Este es el método de inspección convencional de control de

calidad, (SQC), destinado a segregar productos y elementos fuera de especificación • Inspección informativa : Recurre al control estadístico de proceso (SPC), posibilitando la

correcciones en línea, y de ese modo previene los defectos • Inspección en la fuente: Es una técnica que reposa en el autocontrol; es conceptualmente

una acción previa al hecho. Las dos técnicas anteriores son siempre posteriores al hecho. Con la inspección en la fuente y dispositivos poka-yoke se busca asegurar condiciones apropiadas que impidan cometer errores, al extremo, incluso, de que si estas condiciones no se dan no es posible realizar el proceso. Por ser una inspección que involucra al 100%, resulta en un producto con cero defectos, y por ello a veces se le considera una herramienta del ZQC (Zero Quality Control ).

Principios básicos para lograr cero defectos son:

• No producir errores de diseño (diseñando elementos poka-yoke ) • Usar los productos tan pronto sea posible (realizando inspección en línea ) • Usar sistemas de producción amigables (diseñando procesos simples )

Lograr lo primero requiere de acciones preventivas. Estas se basan en diseñar los

productos de forma tal que sea imposible cometer errores. Cuando es posible la prevención no hay posibilidad de cometer errores, importante sobretodo cuando pueden derivar en consecuencias catastróficas. Donde no sea posible aplicarlo, se debe recurrir a la detección, proveyendo alguna señal que alerte sobre el error.

Muchos elementos responden al criterio de poka-yoke: Fichas, conectores, plaquetas y componentes. Son características deseables de una solución poka-yoke:

• ser simples y baratas, para ser efectivas en cuanto a costo • ser parte del producto ( preventivas ) • cuando sean parte del proceso, deben localizarse donde el problema ocurre

Un componente se dice pensado poka-yoke cuando admite una sola forma de

inserción. Esto, cuando se trata de componentes de mas de dos terminales, puede lograrse mediante asimetrías, como ocurre por ejemplo con los terminales del encapsulado TO-92, figura 7.

Para componentes de dos terminales también es posible valerse de alguna asimetría

que tome en cuenta el comportamiento asimétrico del componente, como es el caso de capacitores electrolíticos, diodos, etc. En este caso, se podría obtener una característica poka-yoke si ambos terminales tuvieran diferente diámetro; lo usual, sin embargo, es proveer tan solo una señalización que permita reconocer la mala inserción, por ejemplo con un encapsulado asimétrico, encapsulado D0-7, o con diferente longitud de terminales, como es caso de capacitores electrolíticos de tantalio, diodos leds (encapsulados opto-5 a opto-10), o simplemente mediante marcas en el cuerpo (encapsulados DO-35), figura 8. La característica poka-yoke se convierte así en un criterio adicional importante de selección. Cuando los componentes deben ser montados de un modo único, pero admiten más de una forma de inserción, se trata de que la forma correcta pueda ser reconocida visualmente. Una solución

E

B

C

marca catodo

Fig.7 Fig.8

Page 223: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

215

215

poka-yoke simple, aunque limitada, de lograrlo sería, por ejemplo, implementando un serigrafiado en la placa del circuito impreso, figura 9.

El concepto poka-yoke, aplicable sobre todo al ensamblado manual, permite además de evitar errores, que es su función principal, disminuir los tiempos de armado. Si se trata de piezas mecánicas, con la aplicación de este concepto se busca que las mismas admitan un solo modo de encastre o posicionamiento.

La introducción de la inserción automática resolvió una de las mayores limitaciones en la manufactura de equipos electrónicos, especialmente en el sector de entretenimiento, donde el costo es fundamental, se manejan grandes volúmenes de producción, y por ello se requieren tiempos cortos de proceso. Podría pensarse que, al automatizarse el proceso, el rendimiento debería ser del 100% al desaparecer los errores propios de la operación manual. Si bien la cantidad de errores se ve notablemente disminuida, igualmente puede haber problemas debido a errores de carga, inversión de polaridad por poner en posición invertida el casete o rollo de componentes, o por fallas de la propia maquina insertadora que termina doblando el terminal del componente sobre la placa, en vez de insertarlo en el agujero. Esto se podría evitar si los agujeros tuviesen una forma cónica que sirva de guiado, pero encarecería el agujereado.

La productividad también aumenta si el herramental realiza la menor cantidad de

movimientos en uno de sus ejes, digamos la dirección X, con solo movimientos por incremento de Y. Esto implicará, para componentes axiales, tener en cuenta la orientación y su centro de coordenadas, fijado normalmente por su centro de gravedad. Por ejemplo, los dos primeros bloques de componentes de la figura 10, no cumplen dicha condición.

Diseño para la soldadura

El proceso de soldadura debe adaptarse a los componentes usados. Básicamente las dos tecnologías utilizables son:

• Montaje superficial, o componentes de tecnología SMT (Surface Mount Technology ) • Montaje por inserción (agujero pasante), o tecnología THM (Through Hole Mount)

y dado que los componentes pueden ser montados sobre cualquiera de los dos lados de la placa de impreso, esto da varias posibilidades de realización, figura 11.

Cuando se combinan las dos tecnologías, aplicables e insertables, se aprovecha mejor el espacio, pero requiere mejor precisión litográfica. Además reduce la necesidad de agujeros

serigrafia

catodoanodo

KA

Fig.9 Fig.10

Imprimir pastade soldar

Colocarcomponentes

Soldadura porrefusion

Limpiar Probar

Fig.11 Fig.12

Page 224: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

216

216

Impresión de la pasta de soldar

Colocacion del componente

Soldadura por refusion

pasantes, y ello acarrea, además de un menor costo, mas espacio libre para otros componentes. Por otro lado, si bien es posible contar con dispositivos SMD para elementos que por su volumen en la tecnología convencional parecieran poco aptos para la nueva tecnología, su uso se ve limitado debido a que su altura queda restringida por la longitud de los terminales de los componentes de inserción, que no pueden sobresalir del filo de la plaqueta más de 2 mm.

Cuando se mezclan tecnologías se debe adecuar el proceso de soldadura a los tipos de componentes. Esto muestra la ventaja de operar con un solo tipo de tecnología, y usar una sola cara para el montaje de componentes, figura 12 y figura 13.

Cuando se colocan componentes en ambas caras, el proceso debe ser repetido sobre la

otra cara. Si los componentes SMT se colocan solo sobre la cara superior, se debe hacer una soldadura por refusión, primero para los SMT, y luego soldadura por ola para los insertables.

El proceso de soldadura debe asegurar:

• Bajo castigo por choque térmico • Buena conexión eléctrica • Estar libre de defectos, sin residuos de soldadura ni cortocircuitos

No existe un método único de soldadura que sea óptimo para todos los encapsulados.

La soldadura por ola es adecuada cuando se tienen agujeros metalizados y componentes de montaje superficial mezclados con componentes de inserción. Pero, la soldadura por ola no es adecuada para la soldadura de integrados de montaje superficial, especialmente cuando se tiene muy alta densidad de componentes de montaje superficial. En tales casos debe usarse soldadura por refusión.

Para minimizar la cantidad de defectos de soldadura el diseño de los impresos debe respetar distintas reglas, muchas de ellas dependientes del proceso de manufactura. Una de estas reglas establece por ejemplo la orientación que deben tener los componentes según la dirección del movimiento en el proceso de soldadura, figura 14. La regla exige que el mayor eje de los componentes sea perpendicular a la dirección del movimiento, a fin de lograr que se produzca la fusión simultánea en ambos contactos de la pastilla, y evitar que esta tienda a levantar su otro extremo, impidiendo su soldadura, efecto conocido como defecto lápida.

Diseño para la calibración

Para reducir la variabilidad de una determinada característica, causada por la dispersión de valor de los componentes, es común el empleo de elementos ajustables, agregando una etapa de calibración en el proceso de manufactura.

Actualmente, la mayoría de los equipos están basados en un microcontrolador, lo cual favorece el ajuste por software. Esto requiere usar circuitos integrados con registros de seteo incorporados, a los cuales se accede por líneas de control internas del equipo, un bus I2C o similar. Esto elimina el ajuste mecánico, sea este manual o automático, y permite una importante reducción del costo de ajuste. El valor que resulta del ajuste en el paso de calibración, en vez de prefijar la posición de un elemento mecánico variable, es un dato guardado en una memoria EEPROM que es leída durante el proceso de inicialización del equipo en el encendido del mismo.

d ir e c c io n d e la p la c a

m a s d e fe c to sm e n o s d e fe c to s Fig.13 Fig.14

Page 225: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

217

217

θ

∆E

C

0 180 θ

∆ E

C

0 180

Conceptualmente, el ajuste por software es siempre un ajuste por pasos, que se podrá asimilar a un ajuste continuo solo si la magnitud de los pasos es muy baja. Su mayor ventaja es que elimina la variabilidad debida al factor humano, y no esta sujeto a ninguno de los problemas propios de los elementos de ajuste mecánicos: volumen, estabilidad, etc., y hace posible además el ajuste a equipo cerrado. Para ello, se agregan puntos de acceso directo, disponiendo pequeños agujeros en el chasis que permitan acceder a las líneas del bus de control ubicadas en la placa de circuito impreso, o bien mediante acceso externo a través de un conector. Su mayor desventaja es que limita la posibilidad de recalibración en campo.

Contrariamente a lo que podría pensarse, el ajuste manual no necesariamente lleva al mejor cumplimiento de la especificación. Lograrlo, dependerá de que se reduzcan los errores debidos:

• al elemento de ajuste • al circuito y método de ajuste • a limitaciones en el tiempo dedicado al ajuste • precisión y exactitud de los instrumentos usados en la calibración

En la definición de un ajuste deberá considerarse:

1. Problemas de seguridad. Siempre que se dispone de un elemento de ajuste se debe analizar que en cualquiera de sus condiciones extremas no lleve a daño o condición de sobrecarga de otros elementos del circuito, como sucedería en el caso de la figura 15. Cuando exista posibilidad de sobrecarga, deben definirse las condiciones para un ajuste seguro:

• Limitando la corriente • Reduciendo la tensión de alimentación • Reduciendo la excitación • Reduciendo la carga

2. Problemas de discriminación y sensibilidad. Esto incide en el tiempo y en el error del ajuste. Se evita fijando como rango de variación solo el necesario para llevar a especificación la característica, considerando además de la tolerancia inicial las posibles derivas en el tiempo. Las situaciones indicadas en las figuras 16 y 17 implican un ajuste problemático, que puede resultar con una dispersión mayor que la que se tendría de usar elementos fijos.

3. Problemas de interacción entre ajustes. Si el ajuste de una característica dependiera del ajuste de otra, se dificultaría lograr un correcto ajuste en ambas, como es el caso de la figura 18. En estos casos será necesario definir una secuencia de ajuste para lograr una rápida convergencia.

4. Problemas de descalibración. La descalibración puede ocurrir en etapas de mantenimiento, por error, o ser causada por vibración mecánica. La solución pasa por bloquear el ajuste, mediante selladores, ceras, lacas o traba mecánica. Además, para evitar el uso indebido, solo los ajustes frecuentes permitirán un acceso directo, usualmente escondido, y solo posible con el uso de calibradores especiales.

R v

R

Q

R1

R2

e1

e2x1

x2

Fig.15 Fig.16 Fig.17 Fig.18

Page 226: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

218

218

Diseño para la verificación ( DFT)

Todo proceso de manufactura debe ser controlado, y esto requiere que en el diseño se incluyan requerimientos para la testeabilidad. La idea es que en esta etapa del diseño se examine el espectro de defectos y se desarrollen estrategias apropiadas de inspección y testeo para asegurar la funcionalidad de todos los componentes. Cuando se diseña el circuito impreso, por lo general hay una gran resistencia a incorporar las exigencias impuestas para la testeabilidad (pads y vías adicionales), porque esto requiere mas espacio, representa un esfuerzo adicional de diseño, y además, impone restricciones adicionales tales como “Debido a las restricciones de los rayos X, no se debe colocar un elemento en una cara del impreso, si hay otro elemento en la misma ubicación en la otra cara”, que se suma a la ya muy larga lista de restricciones a las que esta sujeto el diseño de la placa.

Las condiciones a cumplir en el diseño para la testeabilidad son: • Tener accesibilidad completa, desde el punto de vista visual y eléctrico. • Hacer que los circuitos sean mas controlables, de fácil estimulo, y con posibilidad de

estímulos locales • Hacer que los circuitos sean mas observables, facilitando la comprobación de los

resultados de los estímulos • Diseñar circuitos que permitan su partición en circuitos de mas simple control

Idealmente una accesibilidad completa implica poder realizar una inspección visual de

elementos y soldaduras, y comprobar eléctricamente todos los nodos del circuito. La inspección visual juega un papel importante, especialmente en la búsqueda de condiciones marginales: soldaduras frías, residuos de soldadura, microcortos, aperturas, componentes desalineados, ralladuras, resquebrajaduras, suciedad, fijación errónea de componentes, componentes faltantes, etc. Luego, para descubrir los defectos ocultos que resten, si se trata de placas simples, puede ser suficiente hacer solo una verificación funcional, denominada FT (functional-test), figura 19. Para esto se conecta la plaqueta a una maqueta que contiene los restantes elementos del equipo, que se sabe funcionan, prueba que se conoce como hot mockup. En las pruebas funcionales se suministran todas las entradas de la plaqueta, y se miden las salidas correspondientes. Actualmente, este procedimiento de verificación es solo usual en etapas avanzadas del proceso, y en etapas de servicio. La ventaja es que requiere pocos puntos de prueba.

En la etapa de manufactura es necesario contar con métodos de prueba que permitan

detectar que componentes no están funcionando y la causa de ello, para poder corregir el proceso, información que una FT no aporta. Es necesario para ello recurrir a los in-circuit-tester (ICT). En estos se verifican los componentes y las conexiones del circuito en forma independiente, normalmente por comparación: Se obtienen todos los parámetros básicos de nodo de una placa terminada y totalmente operativa, contra los cuales se comparan las demás placas. Por este medio se garantiza que todos los componentes estén funcionando correctamente si satisfacen dicho criterio. La placa a probar se asienta sobre una cama de agujas, que sensa todos los nodos del circuito. Los sistemas ICT imponen restricciones para la ubicación y el espaciado de componentes, que deben ser tenidas en cuenta en el diseño de la placa. Si la placa tiene componentes de ambos lados, conviene que los puntos de prueba estén en uno solo de sus lados, con preferencia el lado de la soldadura; será necesario usar vías para satisfacer esta exigencia si los SMD se montan del lado componentes.

Empastadoy

ColocacionRefusion

Colocacionmanual

Soldadurapor ola

Verificacionfuncional

Fig.19

Page 227: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

219

219

Los circuitos impresos actuales y las tecnologías de encapsulado hacen que los métodos tradicionales de prueba directa, basados en la cama de agujas, sean imposibles de aplicar en plaquetas complejas. El mayor problema de los ICT es que exigen tener acceso a todos los nodos. Esto, por variadas razones (tamaño de la placa, tipo de encapsulado de los dispositivos, etc.), no siempre puede ser posible, lo cual reduce su efectividad. Por ello, y para eliminar fallas definidas, se han desarrollado otras estrategias de testeo buscando además estar mas en línea con el proceso, proveyendo un mejor control de los mismos y reduciendo los retrabajos. Como complemento del ICT se recurre a la inspección óptica automática (AOI), o a la inspección automática por rayos X (AXI), figura 20a, como ayuda en la captura de defectos. El problema que presenta la testeabilidad AOI y la AXI es que, recurriendo a distintas fuentes de aprovisionamiento, puede no mantenerse la geometría de los elementos.

Para plaquetas complejas, lo usual es recurrir a una estrategia de testeo en la que se

combina el AXI, el ICT y el FT, figura 20b. Con la AXI se comprueba la integridad estructural de las soldaduras, con el ICT la integridad de los componentes y del impreso, y con el FT las características de la plaqueta. Normalmente, el 90% de los defectos son de proceso, y esta comprobado que el AXI provee un 95% de cobertura de los mismos, y además permite su exacta localización. Al eliminar los defectos estructurales, se simplifica la detección de los demás defectos en los testeos ICT y FT.

Cuando se requiere alta observabilidad con baja exigencia de accesibilidad se debe

recurrir a dispositivos integrados con boundary scan, lo cual debe ser considerado desde la primera etapa del diseño. Con la exploración periférica (boundary scan) los dispositivos BScan posibilitan la verificación externa de todo el dispositivo, reemplazando las agujas del ICT por celdas BScan. Para ello los dispositivos Bscan agregan circuitos de testeo dentro del propio componente, y lo que es mas importante, permiten el control de todos los dispositivos BScan a través de un bus común de interfase especifico de 4 líneas, figura 21. La operación del testeo se hace conforme a un protocolo de acceso establecido por el estándar IEEE 1149.1. Este define unas pocas instrucciones públicas, con funcionalidad predefinida, y las demás son instrucciones dedicadas (se denominan privadas) que permiten que el boundary scan haga el testeo y la depuración especifica de cada dispositivo. La norma también define un lenguaje descriptor, el BSDL, el cual, basándose en la descripción de los dispositivos BScan que sean usados, facilita la implementación de la interfase de testeo del dispositivo con la placa.

Fig.20

Empastadoy

ColocacionRefusion Colocacion

manualSoldadura

por olaVerificaciondel circuito

AOI/AXI

Empastadoy

ColocacionRefusion Colocacion

manualSoldadura

por olaVerificaciondel circuito

Verificacionfuncional

AOI/AXI

Fig.21

Microprocesador

DispositivoBScan/1

Controladordel Bus de

testeo

DispositivoBScan/2

DispositivoBScan/3

TDI

TDI

TDITDITDO TDOTDOTDO

TCKTMS

DATOS

DIRECCIONES

CONTROL

a) b)

Page 228: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

220

220

Proceso Control

rechazos

aprobados

mn

Diseño de tolerancias (DOT)

En electrónica, el proceso de manufactura engloba siempre tareas de armado, soldadura, y control, figura 22. Si n es la cantidad de elementos fabricados y m la cantidad de ellos que satisfacen los requerimientos, su relación define la productividad intrínseca del proceso, su rendimiento primario o primer índice de calidad (FTQ, first time quality),

nmFTQ ==η

Este rendimiento depende, además del proceso y del AQL, de la tolerancia de los componentes, por lo cual la asignación de las tolerancias es una función importante del diseño.

En la selección de los elementos de un circuito hay normalmente muchas opciones:

aparte de diferencias tecnológicas y de encapsulado, hay diferencias de fiabilidad, calidad (AQL) y de rendimiento de proceso, asociado este fundamentalmente con su tolerancia inicial.

El costo de la solución es suma de los costos de componentes y de la manufactura, costos usualmente contrapuestos. Es que el costo de los componentes es sensible a su tolerancia, y esta determina que más o menos circuitos pasen la etapa de control, por lo cual cabe pensar que habrá una solución que optimiza el costo. La función del diseño es hallar dicha solución. El problema es que si se pretendiera analizar todas las implementaciones que resultan por combinación de los elementos, considerando todas las tolerancias en que están disponibles, la cantidad seria tan grande que haría inabordable su análisis completo. Pese a ello, supongamos haber realizado todas las implementaciones posibles, y determinado el rendimiento de cada una y su costo, figura 23. Muchas de estas soluciones carecen de sentido: Para igual rendimiento solo tiene sentido considerar las soluciones de menor costo. Luego, entre dos soluciones que cumplen el requisito anterior, como la a y b, figura 23, con costos Ca

y Cb y rendimientos ηA y ηB, suponiendo que se desechan las plaquetas que no cumplen la especificación, la mejor solución será aquella para la cual resulte el menor costo para obtener x productos funcionando: Es decir, será la a si se verifica que

b

b

a

a CCηη

<

y la b en caso contrario. Surge claro entonces que la mejor alternativa no es necesariamente la que lleva a un

rendimiento del 100%. El que se acepte que del proceso resulten productos que no satisfacen la especificación, no significa que al usuario van a llegar tales productos. La etapa de control es la encargada de filtrar esos productos defectuosos. Como la etapa de control no puede ser eliminada, porque además de los problemas de incumplimiento debidos a la tolerancia de los componentes, existen errores y problemas de proceso, puede no existir ventaja en proyectar de modo que la tolerancia de los componentes sea asignada para que el 100% de las implementaciones cumpla la especificación.

Además, debe tenerse en cuenta que difícilmente se realice un control del 100% para el 100% de las características. Mas bien la acción de control se restringe normalmente a verificar solo las características mas importantes o criticas del producto, por lo cual el diseño debería basarse en una asignación de tolerancias que permita satisfacer una dada capacidad de proceso para todas aquellas características que no están sujetas a un plan de control del 100%.

Fig.22

a

b

Rendim iento1

C a C b costo

Fig.23

(1)

(2)

Page 229: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

221

221

Asignación de tolerancias

Todo equipo debe satisfacer un conjunto de especificaciones. Habiendo seleccionado los circuitos, para los mismos se podrán establecer un conjunto de relaciones que vinculan las características que debe cumplir con los valores de los distintos componentes

).........,( 21 nii xxxfC =

Los cambios en los valores de los elementos se traducirán en una variación en el valor de la característica

∑=

∆∂∂

=∆n

ii

i

ii x

xf

C1

.

donde Ci: es una característica que resulta impuesta por el circuito. ∆Ci: variación de la característica debida a la tolerancia de los componentes. ∆xi: indica la variación de un determinado componente, variación que esta relacionada con su tolerancia ( apartamiento a su valor nominal ).

La derivada parcial

ii xf ∂∂ es la sensibilidad de la especificación al componente Xi y es dependiente del diseño, o sea, esta determinada por el circuito y el valor de los elementos del circuito. Una definición de sensibilidad más apropiada, a los efectos de su tratamiento, resulta de considerar los cambios relativos de la característica frente a un cambio relativo de una variable, la cual será considerada más adelante1.

Vemos luego que la variabilidad de una característica es función de:

• el circuito, a través de la relación Ci=f(x1,…, xn) • los grados de libertad disponibles para la determinación de los diversos elementos • las variaciones ∆xi a las que están sujetos los componentes

El circuito seleccionado determinara la relación funcional que vincula la característica

con los valores de los elementos. Los grados de libertad surgen de la cantidad de ecuaciones o inecuaciones independientes que deben ser satisfechos y el número de variables o elementos independientes que pueden ser establecidos. Esto implica que muchos de estos elementos, si hay grados de libertad, pueden ser elegidos de modo de minimizar algunos coeficientes de sensibilidad. Esto hará más conveniente aquellas soluciones que provean un número mayor de grados de libertad, por que esto permite:

1. si no hay una dependencia directa y simple entre una característica y un componente, aprovechar los grados de libertad como para que resulte finalmente así 2. lograr mayor ortogonalidad entre las características, cuando estas dependen de componentes comunes

y el proceso se llevara a cabo:

• Seleccionando primero los elementos mas caros y mas sensibles a la tolerancia • Imponiendo coeficientes de sensibilidad bajos ( en base a los grados de libertad ) para

los componentes para los cuales es mas difícil de controlar o de mantener baja su estabilidad, o bien porque son mas caros

La variabilidad de las características del circuito dependerá de la elección de

tolerancia de los componentes, el aprovechamiento de los grados de libertad en el diseño, de que se incluyan componentes específicos de calibración, y del método de calibración.

Pero siempre, cualquiera sea el caso, la característica estará sujeta a una variación de unidad a unidad de tipo aleatorio, con una función de distribución que tendera a la normal, figura 24, suponiendo aplicables las condiciones del teorema del limite central. Esta dispersión 1 Ver pagina 229

(3)

(4)

Page 230: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

222

222

En E∆

p(C)

C

p(X)

p(X)

p(X) a Tmin p(X) a Tmax

rango tolerado por la especificación

Dispersión debida atolerancia inicial

Dispersión despuesde proceso

Dispersión atemperaturasextremas

Margen de variacion aconsumir con el tiempoMargen de variacion a

consumir con el tiempo

X

X

X

se altera a lo largo del ciclo de vida del producto; para su análisis conviene descomponer la tolerancia en varios factores:

tiempoinicialtoloparmadoi XXXXX ∆+∆+∆+∆=∆ ..var

Esto muestra que, aun suponiendo que el producto entre en especificación en el

control final ( a la salida de fabrica, t=0 ), su condición puede ser marginal, por el poco margen de variación que tolera por degradación, figura 25, y por cambios operativos.

En otras palabras: el diseño debe analizar el comportamiento del circuito no solo

frente a la tolerancia inicial, valida al momento de adquisición, sino que debe tomar en cuenta como esa tolerancia se degrada a posteriori. Esto puede ocurrir por variaciones previas al montaje, o a posteriori, pero en condición de almacenamiento. Por cargas de proceso, debidas a la inserción, choques térmicos, acción de solventes, manipuleo, etc. Por cambios debidos a cambios en la temperatura ambiente o por disipación propia, variaciones de tensión, etc. Esto puede implicar que la tolerancia que debe ser considerada para el diseño deba ser más de 2 o 3 veces la tolerancia inicial del elemento.

Variabilidad debida a proceso

El termino ∆Xproceso dependerá de la manera en que se ensamblan y/ó sueldan los componentes. Los procesos, si están descontrolados, pueden alterar de un modo irreversible las características de los componentes debido a las cargas que tales procesos imponen.

Los dos procesos más importantes a los que están sujetos los componentes son el de montaje y el de soldadura. En los componentes con terminales, componentes insertables, la operación de montaje implica el doblado y corte de los terminales. Esto implica esfuerzos que pueden alterar el valor de algunas características. Pero si duda, siempre la carga mayor se da en el proceso de soldadura. El proceso de soldadura ideal debería asegurar:

• Bajo castigo por choque térmico • Buena conexión eléctrica

Para asegurar lo primero, los componentes y la placa deben pasar de la temperatura

ambiente a la temperatura de soldadura de un modo controlado, y para lograr una buena soldadura el material de soldadura y las partes a soldar deben estar a una temperatura próxima a los 240-260ºC. Básicamente hay dos métodos de ensamblado y soldadura:

• Manual: normalmente este es un proceso muy descontrolado en todas sus variables temperatura ( T ), tiempo ( t ), y distancia del cuerpo al punto de soldadura.

• Automático : totalmente controlado

Fig.24 Fig.25

(5)

Page 231: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

223

223

En la soldadura manual, usada para aquellos componentes que no pueden ser soldados en forma automática, se debiera evitar: • posibilidad de soldadura fría, lo cual puede ocurrir cuando no esta bien balanceada la

potencia del soldador con las partes a soldar; en soldaduras recurrentes esto puede ocurrir por insuficiente tiempo de recuperación de temperatura del soldador

• el choque térmico, el cual provoca cambios irreversibles de las características • la corriente de fuga del soldador, que puede degradar severamente algunos componentes

Idealmente la temperatura de la punta debe estar 50ºC por encima de la temperatura de fusión de la aleación, antes y durante la operación de soldadura, figura 26, para lograr una soldadura instantánea, con bajo tiempo de soldadura, de 2 a 2.5 s; la situación indicada en la figura 27 seria indeseable. Los fabricantes de componentes usualmente especifican la temperatura máxima de soldadura, Tmax, en relación al tiempo de soldadura, tmax, figura 28.

Si bien existen varios métodos de soldadura automática, ninguno es óptimo para todos

los encapsulados. La soldadura por ola es adecuada cuando la placa tiene agujeros metalizados y componentes de montaje superficial mezclados con componentes de inserción. Pero, en general no es adecuada para la soldadura de integrados de montaje superficial, o para placas con alta densidad de componentes de montaje superficial. Lo adecuado, en tal caso es usar soldadura por refusión. Con soldadura automática, hay dos aspectos que deben cuidarse especialmente: • El ángulo determinado por el eje longitudinal del componente con respecto a la dirección

de transporte de la placa de circuito impreso. Esto evita defectos de soldadura o de rotura (crack) por choque térmico. Si el encapsulado tiene patitas sobre los cuatro lados debe montarse a 45º respecto a la dirección de transporte de la placa, y el eje longitudinal de los dispositivos con encapsulados del tipo SO debiera quedar paralelo al flujo de la soldadura.

• El perfil de variación de la temperatura con el tiempo, con etapas de precalentamiento previo a la soldadura para reducir el choque térmico y el alabeo de la placa. Cada componente tiene un perfil específico para cada tipo de soldadura, figura 29.

Fig.26 Fig.27 Fig.28

Fig.29

Page 232: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

224

224

X

ttfalla tfalla t

falla paramétrica falla catastrófica

Xlimite Xlimite

Variaciones operativas

La variación ∆Xvar.op toma en cuenta las variables operativas tales como temperatura, presión, humedad, tensión, etc., que resulten influyentes. La influencia de estas variables operativas se mide a través de coeficientes específicos. Actualmente, la tensión no es un factor a considerar en la mayoría de los casos, dada la facilidad y el bajo costo con que se implementan reguladores de tensión, por lo cual mayormente los factores a considerar serán la temperatura y la humedad.

Las variaciones operativas pueden ser tratadas por: 1. selección de componentes de baja sensibilidad frente al conjunto de variables operativas.

Esta es en la mayoría de los casos una solución cara. 2. reducción de la sensibilidad, imponiendo valores adecuados para otros componentes del

circuito, cuando existan grados de libertad que así lo permitan 3. aislamiento o estabilización frente a la variable operativa: tensión, humedad, temperatura,

vibración (generación de carga estática por roce entre partes), golpeteo (fuente de microfonismo en receptores), etc. Si el elemento es función de la temperatura, entonces se fuerza a que el sistema opere a una temperatura constante, por ejemplo poniéndolo dentro de una cámara térmica. Si la característica del elemento es función de la humedad entonces se debe implementar una buen aislamiento respecto al ambiente, usando módulos estancos o por sellado o aplicación de un barniz aislante. De la misma forma se usaran reguladores, para aislar de las variaciones de las fuentes de alimentación, especialmente las tensiones de polarización de dispositivos activos. Si existe posibilidad de que el roce por movimiento de cables de lugar a ruidos, debido a la generación de carga estática, se deberán trabar los cables.

4. compensación de la variación, lo cual puede realizarse: a. por hardware

i. compensación automática 1. seleccionando los otros componentes que participan en la

característica de modo que tengan comportamiento contrapuesto 2. agregando otros componentes o dispositivos con características

contrapuestas ii. compensación manual, haciendo un ajuste o compensación previa al uso.

Esto es frecuente en instrumentación y podrá hacerse cuando se disponga de elementos de referencia que sean muy estables, contra los cuales se hace el ajuste.

b. por software, lo cual requiere contar con un sensor que responda a la variable de incidencia y permita corregir la característica de interés

La incorporación de software en el control de muchos dispositivos analógicos permite

de un modo sencillo nuevas vías de compensación. Estabilidad con el tiempo. Fallas paramétricas

Con el transcurso del tiempo se produce un corrimiento ∆Xtiempo que provoca una falla paramétrica, consecuencia de la degradación paulatina del elemento, figura 30a. Esto la hace previsible, a diferencia de las fallas catastróficas, que son repentinas, figura 30b.

Fig.30

a) b)

Page 233: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

225

225

a

X

p(x)

X

tH

Toleranciainicial

Por lo general los componentes con bajas tolerancias y bajos coeficientes de temperatura tienen a su vez muy baja degradación con el tiempo. Este es un punto importante: En una buena solución los diversos factores de tolerancias debieran estar equilibrados.

Si la dispersión alrededor de su comportamiento medio es baja, la falla paramétrica se

podrá tratar en forma determinística, en base al comportamiento medio. Cabe distinguir dos casos:

• la variación es gradual • la variación sigue una ley logarítmica

Si la variación es gradual es posible anticipar el momento en que sobrevendrá la falla

y programar acciones de prevención para evitarla, figura 31. La ley logarítmica se reconoce porque existe una gran variación al principio, para

luego estabilizarse una vez producidos reacomodamientos internos en el material, figura 32. En un comportamiento de este tipo, la variación de la característica X sigue una ley del tipo

)log(.ottk

XX

=∆

por lo cual el corrimiento entre los instantes t1 y t2 será el mismo mientras se mantenga la relación t2/t1. Es decir, se tiene igual cambio en la característica entre la hora 0.1 y la hora 1, que entre la hora 10000 y la hora100000.

Entre los componentes que tienen una ley de variación con el tiempo de tipo logarítmica se cuentan mayormente algunos semiconductores, cristales piezoeléctricos, y cerámicas magnéticas y dieléctricas. En este caso conviene hacer un envejecimiento prematuro, un proceso de pre-asentamiento previo al uso.

Si la dispersión de los componentes alrededor del comportamiento medio es grande,

es necesario recurrir a un tratamiento probabilístico. Supongamos que se evalúa el corrimiento a lo largo del tiempo de la característica X de un componente, y ello lleva a una curva como la a de la figura 33. Si se repite la evaluación sobre otros componentes resultaran distintas curvas, una por realización, figura 33. Con el conjunto de todas ellas se puede determinar el comportamiento estadístico al cabo de H horas; es decir, hallar la función de distribución de la característica X al cabo de H horas de uso, figura 34. Con esta curva, es posible hacer una predicción de fiabilidad basándose en el método de simulación de Monte Carlo.

X X m a x a d m is ib le

X m in a d m is ib le

M e d ia

in s ta n te d e fa llat

X

ttiempo deasentamiento

Variacionadmisible en X

F(Xi)

X

F(Xi,H)

T=H

T=0X1

1

Fig.31 Fig.32

Fig.33 Fig.34

(6)

Page 234: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

226

226

CiEmaxEmin

F(Ci ,H)

R(H)

Fig.36

Es decir, si Emin es el valor mínimo y Emax el valor máximo de la especificación correspondiente a la característica Ci, entonces si se dispusiera de la función de distribución de Ci a las H horas de uso, F(Ci ,H), figura 35, se podría determinar el valor de la fiabilidad paramétrica como

R(H) = F(Emax, H) – F(Emin, H)

Como la característica Ci es función del valor de los componentes X1,X2,...,Xn,

),...,( 21 ni XXXfC = para obtener la función de distribución de Ci es suficiente conocer los valores que toman cada una de las variables X1,X2,...,Xn en posibles realizaciones al cabo de H horas. Esto requiere conocer la función de distribución de cada componente a efectos de simular posibles realizaciones. Se asignan para ello valores aleatorios como argumento en las funciones de distribución inversa correspondientes a cada componente, de las cuales resultan los valores X1,X2,...,Xn de la realización. Conocido el valor de los componentes, la expresión (8) permite determinar el valor de la característica Ci. Repitiendo el proceso un número elevado de veces, con los valores de Ci obtenidos se puede hallar la distribución de la característica al cabo de H horas, y conocida la misma, obtener la fiabilidad paramétrica, figura 35. Técnicas para mejoramiento de la estabilidad

Cuando la dispersión es baja, la solución pasa por:

• Descarga de componentes, con lo cual se reducen las variaciones al cabo de H horas

• Acciones de mantenimiento preventivo: lo cual se puede hacer o cambiando los componentes antes que se manifieste la falla paramétrica, o haciendo reajustes periódicos.

• Monitoreo2 de la variación, bien sea en forma automática o periódica. La acción de monitoreo busca aprovechar al máximo el componente, evitando el cambio prematuro, figura 36. El tiempo de monitoreo puede ser función de la tendencia de cambio del componente con el tiempo, según resulta de las verificaciones pasadas. La primer verificación, en el instante t1, dará pautas para determinar el momento de la verificación siguiente, instante t2, de modo de anticiparse a la falla, y extender el uso del elemento.

• Regulación automática, en base a un patrón o referencia, como es el caso del cabezal lector láser de un reproductor de CD

La descarga es siempre un medio efectivo para prolongar el tiempo para la falla,

especialmente si la reducción de carga no incrementa significativamente el costo, comparándolo con los costos de una mayor frecuencia de recambio. Desafortunadamente son pocos los fabricantes que suministran datos que permitan llevar el diseño en esta dirección. 2 ver pagina 162

X

t

limite parala falla

t 1 t2 Fig.35

(7)

(8)

Page 235: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

227

227

2121

0.50.10.5

0.251

0.50.250.1

TABLA I

Coeficiente detemperatura

Tolerancia(%)

200 ppm

100 ppm

50 ppm

25 ppm

p(X)

≡ +X XX

p(X)p(X)

p(X)

lotes1 65432 X

X

Tolerancia inicial: Métodos de diseño

La forma en la que se combinen las tolerancias totales de los componentes del circuito determinara que este siga cumpliendo la especificación. Como cada componente esta sujeto a distintos factores de tolerancia, habrá que establecer por un lado la tolerancia de cada uno, y por otro balancear los distintos efectos que la forman. Los distintos factores de tolerancia por lo general están bastante equilibrados, dado que no tendría sentido por ejemplo tener un componente de baja tolerancia inicial con pobre estabilidad. Tomando como ejemplo el caso de resistores de película metálica, un fabricante ofrece una guía para la selección con valores de tolerancia que varían según sea el coeficiente de temperatura, tabla I. Se observa, como se muestra en la figura 37, que ambas características guardan cierta correlación entre si.

Es cierto que algunos de los factores de tolerancia pueden ser eliminados o

controlados fácilmente, como pueden ser los derivados de variaciones operativas o los de proceso; pero eso tendrá sentido en la medida en que ello no incremente el costo. No es lo mismo resolver el problema de la variación con la temperatura estabilizando el ambiente que haciendo una compensación entre distintos elementos del circuito. Lo cierto es que el proyectista puede y debe actuar sobre todos los factores de tolerancia: estabilizando, reduciendo la carga, controlando el proceso, y por selección de la tolerancia inicial.

La tolerancia inicial de cada componente resultara de un balance entre la tolerancia total permitida, y la que resulta de los demás factores,

( )operativaprocesoradaciontotalinicialtolerancia

XXXXX ∆+∆+∆−∆=∆deg

haciendo jugar la cuestión económica en esta repartición.

La tolerancia inicial es consecuencia del proceso de fabricación del componente, y

tiene carácter aleatorio. Cuando son muchos los factores incidentes y con influencia similar, la función de distribución de la tolerancia inicial tendrá carácter gaussiano. Pero, puede haber un factor sistemático, causa especial, que hace que la función de distribución sea arbitraria. Por ejemplo porque se practico una preselección del lote original gaussiano, figura 38, o bien debido al desgaste de una herramienta, que causa una variación continua del valor medio de lote a lote, figura 39; con periódicos cambios o ajustes de la herramienta, resultara una función de distribución uniforme para el conjunto de lotes.

Fig.37

Fig.38 Fig.39

(9)

Page 236: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

228

228

p(X)

Xo(1+t)Xo

½.δ(Xo.(1-t) ½.δ(X o

.(1+t)

Xo(1-t)

Método de peor caso: Intercambiabilidad Total

El diseño de circuitos electrónicos por muchos años se limitaba a calcular el valor nominal de los componentes, o bien buscaba encontrar una solución para el peor de los escenarios: que todos los componentes estén situados en su valor extremo, y que se combinen siempre los extremos para ocasionar la mayor variación.

La primer posición de diseño parte de suponer que la función de densidad de probabilidad responde a una función delta de Dirac, figura 40. La otra posición supone una función doble delta de Dirac, figura 41, y no considera la distribución resultante de combinar estas; solo contempla el caso extremo que provoca el mayor apartamiento, poniéndose en el peor caso.

El método del peor caso tiene la ventaja de la simplicidad, y asegura además que todas

las realizaciones van a cumplir con la especificación, pero lleva a un gran desaprovechamiento de los elementos. Esto no tiene importancia en casos bien definidos:

• se trata de pocas realizaciones, donde un tratamiento mas elaborado no redundaría en beneficio alguno

• el circuito esta compuesto por pocos elementos • el costo de los elementos no es muy sensible a la tolerancia de los mismos • el circuito de por si es muy robusto frente a la variabilidad de los elementos • las exigencias se restringen a pocos elementos, los que además son económicos • las tolerancias exigidas a los elementos para que el circuito entre en especificación

son muy amplias

Alguna de las situaciones anteriores se da normalmente en las soluciones digitales, y también en las soluciones analógicas que recurren a la realimentación como medio para trasladar la alta exigencia de tolerancia solo a los elementos del lazo de realimentación.

La fuerza del método reside en el concepto de intercambiabilidad total, que asegura siempre el funcionamiento con los recambios de mantenimiento, y simplifica notablemente la manufactura, por no requerir ni acciones de control, para segregar los elementos que estén fuera de especificación por diseño, ni acciones de ajuste para entrarlo en especificación.

El proceso de solución para una intercambiabilidad total comienza por asignar la tolerancia a los componentes más caros y de mayor sensibilidad en el costo respecto a la tolerancia. Luego, quedara impuesta la tolerancia de los otros elementos de modo de satisfacer la especificación. El método en si, aunque no directo, requiere tan solo buscar la mejor distribución de tolerancias para los diversos componentes y determinar el costo asociado a esa solución, pero siempre satisfaciendo la especificación en el 100% de las realizaciones.

La asignación de la tolerancia de cada componente debiera hacerse buscando el mínimo costo total, vale decir, el mínimo de

),(......),(),( 2211 XnnXX tXCostotXCostotXCostoCosto +++= sujeto a las restricciones

),....,,( 211 nn XXXfE =

),........,,( 212 XnXXE tttft =

p(X)=δ(Xo)

XXo

Fig.40 Fig.41

(11)

(12)

(10)

Page 237: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

229

229

Este método supone considerar para cada componente tan solo dos valores posibles: Xn(1-t) y Xn(1+t), y que existe un espectro de tolerancias discreto dentro del cual se debe optar. Pero aun así la solución no es tan directa como a simple vista parece. Solo lo será cuando se trate de componentes de igual tipo y con igual sensibilidad sobre la especificación, o cuando el número de componentes del circuito sea reducido, o bien, si el número de componentes susceptibles de tomar distintos valores de tolerancia, que determinan el costo de la solución y tienen una mayor sensibilidad costo/tolerancia, se limitan a unos pocos. De todos modos, siempre el espectro de soluciones se ve reducido a los valores discretos de tolerancia que puede tener cada componente, y a la sensibilidad costo/tolerancia.

En general se trata de que la tolerancia de los componentes menos críticos ( por su disponibilidad, costo y sensibilidad costo/tolerancia) sean la variable de ajuste. Pero esta condición no lleva sin embargo a una solución directa, salvo casos simples.

Para hacer la asignación de tolerancias conviene previamente determinar la sensibilidad del circuito a los distintos parámetros. Para simplificar el análisis, supongamos que la especificación E es función de solo tres parámetros del circuito: X1, X2, X3, o sea

)3,2,1( XXXfE =

La sensibilidad del circuito a un componente mide la variabilidad relativa en la especificación provocada por una variación relativa en el valor del componente. Este valor es útil para asignar la tolerancia de cada componente. Para hallar la sensibilidad al componente i se varía su valor desde Xio a un nuevo valor Xin, tal que

)1.(. dXXdXX ioioioin +=+=

donde d mide un incremento diferencial suficientemente bajo, de modo que

d

XioXi

XioXioXi

=∆

=−

De (13) surge que si cada componente i tiene una tolerancia ti entonces

∑∑∑ =⎟⎠⎞

⎜⎝⎛ ∆

⎟⎟⎟

⎜⎜⎜

⎛ ∂=∆⎟

⎠⎞

⎜⎝⎛ ∂

=−

=∆ tiS

XioXi

dEo

EXi

dXiE

EoEEE

EE

XiE

i

o

on

o...1

estando por tanto, para ese circuito, el coeficiente de sensibilidad al componente Xi dado por

dE

E

S oi

XiE

=

Esto implica que si los coeficientes de sensibilidad fueran conocidos, se podría

determinar el corrimiento de la especificación para un apartamiento cualquiera de las variables; este conocimiento ayuda además a realizar la repartición de tolerancias.

La determinación de SE/Xi por medio analítico puede resultar una tarea compleja desde el punto de vista del calculo, pero su determinación mediante una herramienta computacional, como MatLab, es una tarea muy simple. Primero se determina Eo para el juego de variables,

X = [ X1o X2o X3o ] que corresponde a componentes con su valor nominal, y luego el nuevo valor que asume cuando se varia solo X1, o solo X2, o solo X3 en un diferencial relativo. Es decir, el conjunto de nuevos valores para los cuales se debe calcular la especificación si se variara X1 será,

X = [ X1o .(1+d) X2o X3o ] mientras que si fuera el componente 2 o el 3 el que se varia, serian los juegos de valores

X = [ X1o X2o.(1+d) X3o ]

X = [ X1o X2o X3o .(1+d) ] (21)

(17)

(19)

(18)

(20)

(13)

(14)

(15)

(16)

Page 238: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

230

230

Esto define una matriz de variación Q, tal que

o

o

o

o

o

o

n

n

n

XXX

QXXX

dd

d

XXX

3

2

1

3

2

1

3

2

1

..111

111111

=+

++

=

En base a esta matriz Q se calculan los coeficientes de sensibilidad, obteniéndose así

el vector de sensibilidades

1),,(

).,.,.(1

),,().,.,.(

1),,(

).,.,.(.1

321

333322311

321

233222211

321

133122111

321

−−−=

=

ooo

ooo

ooo

ooo

ooo

ooo

XEXEXE

XXXEQXQXQXE

XXXEQXQXQXE

XXXEQXQXQXE

d

SSSS

Estos valores de sensibilidad nos orientan en dos aspectos:

• Por su magnitud, a los efectos de asignar tolerancias mas estrechas cuando se tienen sensibilidades mas altas,

• Por su signo, útil para determinar los valores que llevan la especificación a un valor extremo para tolerancias asignadas

El máximo valor de la especificación se halla tomando la tolerancia de cada

componente con el signo que resulta de la sensibilidad, y el mínimo invirtiendo los signos de todas las tolerancias respecto de la condición anterior.

El método de diseño del peor caso se remite a imponer una tolerancia criteriosa para los componentes y comprobar que se satisface el rango admitido de variación; de no ser así, habrá que estrechar la tolerancia de algunos componentes atendiendo a los criterios ya mencionados.

Este método lleva a una capacidad de proceso que será función de la asignación de tolerancias y de como sea la función de distribución de las mismas. Supóngase el caso de una red serie de n resistores de igual valor y tolerancia, y supóngase que los componentes tienen una función de distribución normal, con una capacidad de proceso Cp=4/3. Dado que

34

.6..2

.6==

∆=

R

Rn

Rp

tRRCσσ

de donde resulta

4. Rn

RtR

de modo que el desvío estándar de la red de resistores estará dado por

4..

. RnR

tRnn == σσ

Como el rango de la especificación para el peor caso debe ser

Rnt tRnR .2..=∆

de modo que por aplicación del método del peor caso se obtiene

ntRn

tRnRCp

Rn

Rnt .34

4...6

...2.6

==∆

que determina una capacidad de proceso superior a la capacidad de sus componentes. Además, se ve que la capacidad de proceso mejora con el aumento de la cantidad de componentes. Estos resultados son de validez general, y resultan al considerar como limites para la especificación los que resultan de combinar los valores extremos de los componentes, lo cual siempre será un evento raro, y consecuentemente redundara en un estrechamiento de la dispersión de la especificación.

(22)

(23)

(24)

(25)

(26)

(27)

(28)

Page 239: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

231

231

Proceso

No

Si

¿Cumple?

C

p(C)

∆E/σc

rechazosrechazos

FTQ

Diseño probabilístico: Intercambiabilidad Parcial

La técnica de intercambiabilidad parcial es un método probabilístico, y por tanto aplicable a producciones masivas o seriadas. El objetivo es poder utilizar componentes de una mayor tolerancia que la que resultaría de aplicar el método de íntercambiabilidad total, logrando así un mayor rédito económico. El método supone que el circuito puede no satisfacer la especificación, aun estando los componentes dentro de su especificación. Aceptar que de proceso resulten plaquetas que no cumplen con la especificación no significa que el usuario vaya a recibir plaquetas defectuosas: Las que no entren en especificación son rechazadas en el proceso de comprobación, figura 42, para luego ser descartadas o retrabajadas.

El método del peor caso supone para los componentes el valor extremo que

corresponde a su tolerancia, cuando en realidad muy pocos estarán en esas condiciones, y a la vez, la probabilidad que se de la peor de las combinaciones será aun mas reducida. Frente a este planteo caben las dos opciones siguientes:

• Hallar una solución que sea optima bajo el criterio económico, sin importar el rendimiento de la implementación ( el primer índice de calidad, el FTQ )

• Satisfacer el criterio económico, sujeto a la restricción de una dada capacidad de proceso

Supongamos conocido el valor del desvío estándar para cada uno de los parámetros

que participan en la característica de interés, por lo que

( )22

2

21

.

.

)........,(

ixi

C

ii

n

xf

xxfC

xxxfC

σσ ∑

⎟⎟⎠

⎞⎜⎜⎝

⎛∂∂

=

∆∂∂

=∆

=

En virtud del teorema del límite central, la distribución resultante será de tipo gaussiano. Por tanto, conocida la varianza de cada parámetro se puede calcular la varianza de la característica, y en función de CE σ/∆ se puede calcular el rendimiento de fabricación FTQ, figura 43, suponiendo centrada la característica, por la relación entre las plaquetas que no requieren retrabajo, finalizado el proceso de armado, respecto al total de plaquetas armadas.

En vez de buscar el menor costo de fabricación, sin otra restricción, el método puede ser aplicado de modo que además la solución satisfaga un requerimiento de capacidad de proceso. En este caso, determinado el costo resultante para una asignación de tolerancias, se debe repetir el cálculo con otras asignaciones que cumplan con la capacidad de proceso requerida, buscando la solución de costo mínimo. Estas opciones deben intentarse variando la tolerancia de aquellos componentes con alta variación de costo con el cambio de tolerancia.

El tratamiento se puede simplificar teniendo en cuenta que de la expresión ( 16 ) se deduce

∑ ∆=∆

io

iXiEo X

XSEE ..

de la cual resulta

Fig.42 Fig.43

(30)

(31)

(29)

(32)

Page 240: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

232

232

2

2222 ..

io

XiXiEoE

XSE

σσ ∑=∆

Como se ha visto al tratar el tema de calidad, los fabricantes de componentes trabajan con el criterio de los “α sigma”, donde α varia de 3 a 6, lo cual implica que en general será

ioiXi tX ..ασ = Si se adopta igual criterio de α sigma para la especificación, lo que implica

trabajar sobre la base de un criterio de capacidad de proceso, resulta

( ) 2/1222 .... ∑==∆ ∆ iXiEoE tSEE ασα de lo cual se deduce la tolerancia resultante de la especificación

( ) 2/122 ..∑=∆

iXiEo

tSE

E

Veamos su aplicación al caso de la red de n resistores de igual valor y tolerancia conectados en serie, suponiendo que tienen una capacidad de proceso Cp=4/3, o sea

34

.6..2

.6==

∆=

R

Rn

Rp

tRRCσσ

de la cual resulta

4. Rn

RtR

de modo que el desvío estándar de la red de resistores es

4..

. RnR

tRnn == σσ

En este caso, como se impone el valor de la capacidad de proceso,

34

.6=

∆=

σtR

Cp

teniendo en cuenta (39), resulta un rango para la especificación

Rnt tRnR ..2.6.34

==∆ σ

pero, como además el valor nominal de la resistencia total esta dado por ntn RnR .=

resulta

ticoprobabilisRR

t

t tnn

tRR

.2.2 ==∆

mientras que si se aplicara el método de intercambiabilidad total debería ser

casopeorRt

t tRR

.2=∆

de modo que para igual especificación, si en el método de intercambiabilidad parcial se impone mantener la capacidad de proceso, las tolerancias de los componentes están relacionados por

n

tt ticoprobabilisR

casopeorR =

En el diseño se plantea el problema inverso: Fijado un rango para la especificación, se trata de asignar una tolerancia para los componentes que sea óptima, jugando con los coeficientes de sensibilidad y los costos relativos de los componentes. El método de solución raramente será directo, porque debe contemplar la función de distribución de cada componente, la cual, además de ser arbitraria, puede estar descentrada de su valor nominal.

(40)

(36)

(33)

(39)

(34)

(35)

(37)

(38)

(41)

(42)

(43)

(44)

(45)

Page 241: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

233

233

CEmaxEmin

1F(C)

FTQη =

El tratamiento probabilístico más general lo provee la simulación de Monte Carlo, con la cual se puede determinar el rendimiento para una asignación dada de tolerancias. Para ello es necesario conocer la función de distribución de todos los componentes que participan en la característica. Luego simulando valores para cada uno de estos, obtenidos a través de la generación de números aleatorios, se determina el valor de la característica de una posible realización, haciendo el reemplazo en la expresión correspondiente, expresión (29).

Repitiendo el proceso un número suficientemente elevado de veces, se puede obtener la distribución a la cual responde la característica, figura 44, y su rendimiento, proporción de simulaciones que cumplen con la especificación, o sea tales que

maxmin ECE <<

Obtenido el rendimiento, se puede determinar el costo de la solución. En el caso en

que las plaquetas rechazadas se retrabajen, el costo de cada plaqueta será Si en cambio las que no cumplen la especificación se desechan, el costo de cada

plaqueta estará dada por Variando la tolerancia de los componentes que tienen mayor sensibilidad de costo

frente a la tolerancia, se podrá obtener el costo de otra solución. Si este resultase superior, se deberá realizar otro intento en sentido opuesto, y continuar hasta encontrar la solución de mínimo costo, figura 45.

El método de simulación de Monte Carlo es útil también cuando se debe hallar una

solución que debe además cumplir con una dada capacidad de proceso. Simplemente, se verifica la capacidad de proceso por la relación entre el rango admitido para la especificación y el desvío estándar de la característica obtenido con los valores de la simulación. La solución óptima será en este caso aquella que al menor costo satisface la exigencia de capacidad de proceso. Método de selección por grupos

Otra técnica que permite reducir la variabilidad debida a la tolerancia inicial consiste en preclasificar los componentes en subgrupos, de modo que si t es la tolerancia inicial, los componentes clasificados en cada uno de los subgrupos pasan a tener una tolerancia t/n. Es decir, el rango de dispersión inicial pasa de ser

iimi XtX .=∆ a ser

ii

mi Xnt

x .=∆

C o s toto ta l

O p t im o

T o le r a n c ia d e lc o m p o n e n te i

Fig.44 Fig.45

Costo_plaqueta = Costo_proceso + ( 1 - η ) . Costo_reproceso

Costo_plaqueta = η1 . Costo_proceso

(46)

(47)

(48)

(49)

(50)

Page 242: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

234

234

XoX1

1 subgrupok-1-k xm∆

1 k-1- kx x x x

Xo

Xj+ ∆

x

x∆

xj

2 x m∆

X1

Xm+ ∆

Supongamos en principio que la característica dependa de solo dos variables X1 y X2,

),( 21 XXfC = entonces

22

11

XX

fXXfC ∆

∂∂

+∆∂∂

=∆

Esta expresión muestra que para obtener una compensación exacta debería ser

022

11

=∆∂∂

+∆∂∂ X

XfX

Xf

lo cual no es posible si ∆X1 y ∆X2 son variables aleatorias independientes. Supongamos clasificados los componentes en 2n+1 grupos, de modo que el valor X1

de un componente del subgrupo j satisface la relación xxXXXX jojo ∆++=∆+=1 donde xj mide el apartamiento de la media de los componentes de ese subgrupo con respecto al valor que debiera tener X1 para cumplir con la especificación, Xo, figura 46.

A cada subgrupo k le corresponderá un subgrupo –k, ubicado simétricamente con

respecto al valor nominal, que se supone centrado, figura 47. Si ahora se combina cualquier elemento del subgrupo j del componente X1 con otro elemento del subgrupo k del componente X2, habrá un corrimiento en la característica dado por

).(2

).(1 2211 sksj

xxX

fxxXfC ∆+

∂∂

+∆+∂∂

=∆ que dependerá del valor de las nuevas variables aleatorias ∆x, y los valores prefijados de j y k.

Si los elementos del grupo j se combinan exclusivamente con los elementos del grupo k, la variabilidad de este conjunto se reduce n veces con respecto a la que se tendría sin clasificar, pero su valor medio podrá estar desplazado con respecto al valor nominal de la especificación. Para que esto no ocurra, los subgrupos a combinar deben ser elegidos para lograr que

0.2

.1 21 =

∂∂

+∂∂

kjx

Xfx

Xf

de modo que fijado el subgrupo j de X1, el subgrupo k de X2 debe elegirse para satisfacer

kj

x

Xf

Xf

x 21 .

1

2

∂∂

∂∂

−=

lo cual implica que a un subgrupo de X1 que esta por encima de su valor nominal le corresponderá un subgrupo de X2 ubicado por debajo de su valor nominal, figura 48.

Fig.46 Fig.47

(57)

(51)

(55)

(56)

(53)

(52)

(54)

Page 243: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

235

235

p(C)

C

p(x)

X

X2oX2

1 subgrupok-1-k m∆

1 k-1- kx2 x2

x2

x2 x2

X1

1 subgrupok-1-k m∆

1 k-1- kx1 x1

x1

x1 x1X1o

En particular, al subgrupo de X1 cuya media es la más apartada del valor nominal

(x1m), le corresponderá un subgrupo de X2 que será también el más apartado, (x2m), pero en sentido opuesto; es decir

mm xX

fxXf

21 .2

.1

∆∂

∂−=∆

∂∂

de lo cual resulta

21 .2.2

.1.1

tXX

ftXXf

oo ∂∂

=∂∂

expresión que requiere que las tolerancias verifiquen la relación

1

2.12

2

1

Xf

Xf

XX

tt

o

o

∂∂

∂∂

=

Como la cantidad de subgrupos debe asegurar la variabilidad impuesta para la

especificación,

oExX

fxXf

mm∆≤∆

∂∂

+∆∂∂

22

11

y como además debe ser

121..2

121 1

1 +=

+∆

=∆n

Xtn

mXx om

122..2

122 2

2 +=

+∆

=∆n

Xtn

mXx om

resulta, en el limite, de la expresión (61)

( ) ( ) ooo EXt

XfXt

Xf

n∆=⎥⎦

⎤⎢⎣⎡

∂∂

+∂∂

⎟⎠⎞

⎜⎝⎛

+2..

21..

1122

21

expresión que permite calcular el numero de subgrupos g,

1.2 += ng

y con ello el rango, o máxima variabilidad, de cada subgrupo,

gX

x mm

11

∆=∆

Si la cantidad de subgrupos es grande, prácticamente puede asumirse que cada

subgrupo responderá a una distribución uniforme, figura 49a. Como consecuencia, la característica que resulta de combinar los distintos subgrupos tendera a una distribución triangular, figura 49b, en todos los casos con igual valor medio y rango.

Cuando la característica relaciona dos variables X1 y X2 en la forma

21 . XXC =

Fig.48 Fig.49

(58)

(59)

(60)

(61)

(62)

(63)

(64)

(65)

(66)

(67)

a) b)

Page 244: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

236

236

x∆

seleccionpor grupos

seleccionpor grupos

intercambiabilidadparcial

intercambiabilidadparcial

τ

p( )

p( )τ

τ

τ

p( )

p( )

R, C

R, C

Dispersioncomponentes

ó

21

XXC =

como seria el caso de una constante de tiempo, de la frecuencia de oscilación de un circuito resonante, de la ganancia de un circuito realimentado, etc., si la clasificación se hiciera de modo que todos los grupos tuvieran igual rango, en tal caso no se mantendrían los limites de variación de los distintos subgrupos; es decir, para que los rangos que resultan para la característica en los distintos subgrupos sean iguales es necesario que el valor máximo de cada subgrupo este relacionado con el menor valor de ese subgrupo por igual razón; obviamente, además, el máximo de un subgrupo debe ser igual al mínimo del siguiente. Esto si bien mantiene el rango de variabilidad de la característica de los distintos subgrupos, acarrea un rango de variación para los subgrupos distinto, y por consecuencia, si las distribuciones son simétricas, quedaran elementos sobrantes, sin posibilidad de combinarse.

Las ventajas del método de selección por grupos se ven limitadas cuando los componentes responden a distribuciones normales, con alta capacidad de proceso. En estas condiciones, la población que toma los valores extremos es muy baja, resultando más ventajoso el método de intercambiabilidad parcial, figura 50, porque se evita el costo de preclasificación. Solo si la característica depende de un número reducido de elementos, y se usan componentes con baja capacidad de proceso, conviene el método de selección por grupos, figura 51.

El método de selección por grupos lleva a generar subpoblaciones con distinta distribución, y por tanto de distinta capacidad de proceso, la peor corresponde a los subgrupos centrales, figura 52. Estrechando los límites de clasificación de los grupos centrales, y aumentando los correspondientes a los grupos ubicados en las colas, es posible obtener similar capacidad de proceso para todos los subgrupos, y satisfacer una capacidad superior a 4/3, figura 53, y mejor a la que se tendría con intercambiabilidad parcial.

τ

p( )τ

Rango de dispersion sin clasificar

Rango especificacion paraigual capacidad de proceso

Rango especificacionpara igual tolerancia

τ

colas

centros

p( )τ

Fig.50

Fig.51

Fig.52 Fig.53

(68)

Page 245: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

237

237

componentes X variabilidad delproductoProceso

dearmado

variabilidad delproductocomponentes X Proceso

dearmado

Proceso deajuste

componentes X variabilidad delproductoProceso

dearmado

Proceso deajuste

ajuste demedia

Proceso deajuste

etapa 1 etapa 2 ajuste devarianza

Aunque simple, el método de selección por grupos no esta exento de problemas:

• es necesario realizar el esfuerzo de clasificación, lo cual agrega necesariamente un costo • es solo aplicable a producción seriada, o cuando menos a lotes • la característica a cumplir debe depender de elementos que permitan el balanceo • los demás factores de tolerancia deben ser compatibles con la tolerancia inicial; de poco

serviría por ejemplo tener componentes con tolerancia inicial del 1% si por efecto de la temperatura pueden ocurrir corrimientos del orden del 5%

• si la característica depende de muchas variables, el método pierde eficiencia • deben poder formarse grupos que permitan el aprovechamiento de todos los elementos • provee baja capacidad de proceso, y menor a medida que se incrementan los subgrupos • requiere que en el mantenimiento se usen elementos preclasificados o una recalibración

Método de ajuste por pasos

El método de ajuste por pasos, a diferencia de los anteriores, es una acción a posteriori del armado. En los métodos previamente desarrollados, la variabilidad del producto queda impuesta una vez completada la etapa de armado de la plaqueta, figura 54a, mientras que en el ajuste por pasos a la etapa de armado (que puede o no incluir los componentes ajustables) le sigue una o dos etapas de ajuste, figura 54b,c, destinadas a bajar la variabilidad, y reducir el apartamiento de la característica respecto a su valor nominal. Como se vale de elementos estándar fijos resulta una solución económica, fiable, estable, y poco susceptible a variaciones operativas.

El método trata de acomodar la variación que resulta de una característica ∆C dentro del rango de variación impuesto para la especificación, ∆E, valiéndose de un ajuste en pasos discretos. Esto puede lograrse :

• por hardware, eliminando o agregando componentes dentro de un conjunto dado • por software, variando el registro de un circuito integrado El método es adecuado cuando son muchos los componentes que inciden en la

característica, y de tolerancias muy amplias, pues permite controlar la dispersión de todos ellos seleccionando el valor apropiado Xa de otro (o un grupo de otros componentes).

El valor del componente ajustable Xa dependerá del valor que tomen los demás

componentes Xp, cuya incidencia en la característica es conocida, por estar prearmados al momento de realizar el ajuste. Si al inicio del ajuste se impone para Xa su valor nominal Xao, como

),,....,......,( 1 XaXpXpXpfC nj= bajo el supuesto de que Xa=Xao, resulta que ∆Xa = 0, y por tanto

j

n

jj

n

j

XpXp

fXaXafXp

XpfC ∆

∂∂

=∆∂∂

+∆∂

∂=∆ ∑∑ ...

11

de modo que para compensar el corrimiento ∆C debido a los componentes Xp bastaría con fijar para Xa un nuevo valor dado por,

Fig.54

a) b) c)

(69)

(70)

Page 246: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

238

238

XaXamin

p(Xa)

XamaxXa1 Xa2

Xac

Xajo

XaXamin

p(Xa)

XamaxXa1 Xa2

Xajo

dispersión del componente deajuste de valor nominal Xajo

XafX

XfCXaXaXaXa

n

pjpj

oo ∂∂

⎥⎥⎦

⎢⎢⎣

⎡∆

∂∂

−∆+=∆+= ∑1

La expresión (69) permite, por cálculo, o simulación de Monte Carlo, obtener los valores extremos de Xa, Xamax y Xamin, necesarios para cumplir exactamente con la especificación nominal, Co, habiendo seleccionado los componentes Xp, con su tolerancia. Si se recurre a la simulación, es posible además conocer la distribución de valores de Xa para satisfacer la especificación, figura 55a, y en particular que proporción de implementaciones requerirán valores comprendidos entre dos valores cualesquiera Xa1 y Xa2.

El efecto de los componentes Xp es desparramar la característica en un amplio rango,

por lo que el rango de Xa también será amplio. Prefijada una tolerancia para Xa, ta, la cantidad de valores estándar comprendidos dentro de ese rango estará dada por

)

minmax

.21log(/log(

atXaXa

n+

y el ajuste busca definir cual de ellos es el apropiado para una dada realización. El método lleva a dos fuentes de apartamiento: Por un lado la diferencia entre el verdadero valor de ajuste y el valor nominal Xajo, valor que es conocido al momento del ajuste, y por otro la diferencia entre el valor nominal seleccionado en el ajuste y el valor del componente que sea colocado a posteriori como resultado del ajuste, y su valor, por tanto, al momento del ajuste es aleatorio. Si Xar es el valor efectivamente colocado y Xac el que provee compensación exacta, será

( ) ( ))()(.. ocorcr XajXaXajXa

Xaf

XaXaXaf

C −−−∂∂

=−∂∂

=∆

y en el peor caso, si Xac cae en el limite de la tolerancia, cercano a Xa1, y el valor Xar esta en el limite opuesto, esto daría el máximo apartamiento,

XajotXafC a ..2.

∂∂

=∆

con la cual se calcula la tolerancia ta del elemento de ajuste en base al desajuste ∆C tolerado. Cuando se tienen muchos pasos, puede suponerse que los valores Xac se distribuyen

en forma uniforme dentro del rango de cada paso, y si además los componentes de ajuste son de alta capacidad de proceso, entonces la característica responderá a una distribución uniforme, figura 56, y consecuentemente significará una baja capacidad de proceso.

Ahora bien, como (Xac-Xajo) es conocido al momento del ajuste, bastaría agregar un componente xa de valor

joca XaXax −=

para compensar dicho corrimiento, disponiéndolo en una posición, bien sea en serie o paralelo, según corresponda al signo. Al disponer de dos componentes para el ajuste se reduce el rango de dispersión y se mejora la capacidad de proceso, figura56.

Es posible también recurrir a otra variante del método, en la cual todos los

Fig.55 a) b)

(74)

(73)

(72)

(71)

(75)

Page 247: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

239

239

∆Xa /Xa

p( )

∆Xa /Xa

p( )

distribuccioncon ajuste por

pasosdistribuccion sin ajustar

0 implica que se debe eliminar el componente de valor xi=2i.∆Xo 1 implica que se deja el componente de valor xi=2i.∆Xo ai =

18 18.2 18.4 18.6 18.8 19 19.2

2

468 680K

360k 180k

Tension antes de ajustar

R1

Eo

xnx1

xx-1 -n

R1

R2

-+

Er

componentes, incluido el de ajuste sean de igual tolerancia, bajando al mismo tiempo la gama de valores requeridos para el ajuste, recurriendo a un ajuste en varias etapas. Para n etapas, se agregaran n componentes adicionales, de un valor

na xxxxxx +++++= ....4321 donde el valor del componente xj se selecciona en función de los componentes previamente colocados x1, x2, ..., xj-1, en las j-1 etapas de ajuste previas. En este caso, solo quedara como valor aleatorio el colocado en la última etapa, que causara una variabilidad muy reducida de Xa, figura 57, y por tanto de la especificación.

El método ideal debiera requerir una gama reducida de componentes, de alta tolerancia, y posibilitar además el ajuste en una sola etapa. Esto es posible si todos los componentes son colocados antes del ajuste, y el ajuste elimina los que resulten innecesarios. Supongamos que 2.∆Xo sea el rango permitido para Xa para satisfacer la especificación, y que los 2n componentes de ajuste se eligen de modo que el valor xa este dado por

( )nn

nnoa aaaaaXx 2.....2.2.2.....2.. 2

211 ++++−−−∆= −−

donde y su valor se determina de modo que (77) verifique con el menor error posible la especificación. Con 2n elementos de ajuste se pueden obtener

12 += np pasos de control, lo que permite estrechar el rango inicial en igual medida, figura 58. Los componentes xi y x-j deben ser elegidos apropiadamente conforme a cada circuito, figura 59. Luego, basándose en el valor de la característica al momento del ajuste se determina que componentes deben ser eliminados, figura 60.

El método tiene dos desventajas:

• en cada realización se usan todos los componentes • da origen a una distribución uniforme, de baja capacidad de proceso

(76)

(77)

(78)

Fig.56 Fig.57 Fig.58

Fig.59 Fig.60

Page 248: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERIA: Manufacturabilidad

240

240

Realmente, como el concepto de capacidad de proceso supone una distribución gaussiana, el mismo no seria aplicable. Sin embargo, su extensión a una distribución uniforme es consistente con la función de pérdidas de Taguchi. Es que, si la distribución fuera gaussiana, y la capacidad de proceso superior a 1, muy pocas implementaciones estarán alejadas de la meta ( es mas, la mayoría estará muy cercana a la meta), mientras que con la uniforme se tiene igual chance de estar próximos como alejados de la meta, por lo cual la función de pérdidas será mayor. Su única ventaja es que sus valores extremos están acotados, no así en la distribución gaussiana. Visto de otro modo, también podría decirse que incrementando el número de subgrupos, el método tiende a la distribución ideal, que es una función de densidad delta de Dirac ubicada exactamente en la meta.

Actualmente, mayormente el método se instrumenta por software, prefijando el valor en un registro, valor que es capturado en el ajuste y guardado en una EEPROM, para luego ser cargado en la etapa de inicialización, con cada arranque del equipo. Su instrumentación dependerá de cada circuito; por caso, para el circuito de la figura 59 seria fijando el valor de Er.

Método de ajuste continuo

El método de ajuste continuo es posiblemente uno de los más usuales, pero no es siempre la mejor solución: El método recurre a elementos más caros, mas voluminosos, menos fiables, y además en su gran mayoría los elementos ajustables son mas sensibles a la temperatura, la humedad y a la descalibración. En la medida en que estos factores se quieran minimizar, aumentan los costos, dado que la solución pasara sin duda por elegir elementos sellados, de alta estabilidad y con posibilidad de bloqueo mecánico.

En los métodos de ajuste se busca compensar la variabilidad en el valor de los componentes Xi y la de otras variables Vi que están fuera de control, pero cuya incidencia es conocida al momento del ajuste, como es el caso de las variaciones debidas a proceso y tolerancia inicial de componentes, utilizando una variable de ajuste Xa. Es decir, dado que

),..2,1,,....2,1( VmVVXnXXfC = resulta

XaXafVi

VfXi

XifC ∆

∂∂

+∆∂∂

+∆∂∂

=∆ ∑∑ ...

y si al momento del ajuste se fuerza el corrimiento de Xa en

⎟⎟⎠

⎞⎜⎜⎝

⎛∆

∂∂

+∆∂∂

∂∂

−=∆ ∑∑ ViVfXi

Xif

Xaf

Xa ...1

se compensaran las variaciones de los componentes, tomando en cuenta inclusive el valor que tomen las variables operativas al momento del ajuste.

Como ventaja del método, un ajuste continuo hace posible que las variaciones debidas a la inestabilidad de los elementos, variación en el valor de los componentes con el transcurso del tiempo, puedan corregirse mediante reajustes periódicos; no es este el caso de las variaciones operativas, que serán por tanto las que, juntamente con los errores debidos a la instrumentación del ajuste, definirán la variabilidad última de la característica.

El ajuste deberá satisfacer criterios de seguridad, resolución, estabilidad, interacción con otros ajustes, y demandar bajo tiempo de ajuste, exigencias a veces contrapuestas. Supóngase que el rango del ángulo de ajuste se limite a 180º, asumiendo un ángulo de incerteza de αº, compatible con un tiempo de ajuste, y que sea ∆Xar el rango admisible para cumplir la especificación y ∆Xa la dispersión que resulta de (81), entonces debiera cumplirse

XaXa r

∆∆

≤ .180α para validar dicho ajuste.

(79)

(80)

(81)

(82)

Page 249: Libro Materia

Documentación Un boceto vale más que mil palabras

Transferencia de Tecnología

La conclusión natural del proyecto de ingeniería es la transferencia de tecnología,

entendiendo como tal al conjunto de actos, documentos y otros elementos (maquetas, prototipos, etc..), por los que un componente, equipo, o sistema, puede ser "conocido", utilizado, reparado, fabricado por otra/s persona/s o entidad/es distintas a las que originalmente poseían estas capacidades técnicas.

La transferencia de tecnología tiene como razón ser un vehículo de formalización de las relaciones entre el proveedor ( poseedor ) de tecnología y su cliente; y además, permite poner límites a dichas relaciones, tanto temporalmente como cuantitativamente

En toda transferencia de tecnología están presentes los siguientes componentes:

DOCUMENTOS: • Técnicos • Contractuales ( contratos, compromisos )

ELEMENTOS: • Prototipos • Maquetas

ACTOS: • Jurídico-contractuales • Técnicos (p ejemplo de seguimiento)

El documento técnico La misión del documento técnico tiene como objetivo servir de transmisor de

información técnica, figura 1. Durante la realización del documento es “clave” tener siempre presente a QUIEN va dirigido.

Es por tanto importante que en la elaboración de un Documento Técnico se tenga presente que el mismo reúna las siguientes condiciones:

• Ser capaz de transmitir información técnica • Facilitar el acceso y localización de la información • Ser atrayente. • Ser cómodo. • Ser transparente. • Ser directo. • No ser ambiguo

Fig.1

Poseedordeinformación

Receptordeinformación

DocumentoTécnico

Page 250: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica

242

242

y a la vez debe contar con ciertos atributos:

• Estructuración (índice, apartados, ordenación) • Cuantificación (valoración numérica) • Precisión (numérica, instrucciones, recomendaciones) • Complitud (exhaustividad del contenido) • No redundancia (innecesaria) • Objetividad (no incluir opiniones sino elementos contrastables)

Como ejemplo de documentos técnicos típicos se pueden citar:

• Oferta de Proyecto (Propuestas) • Proyecto y Memoria Técnica • Procedimientos • Ordenes de cambio de ingenieria (ECO) • Manuales • Informes de Finalización (Completion report) • Informes de Actividad (Progress report) • Actas de reuniones (Minutes) • Comunicados (Memorándum) • Cartas • Presentaciones orales

El primer paso en la formulación de un documento técnico es definir su estructura.

Una primera jerarquía deberá desglosar en las siguientes partes: • Identificación: • Resumen: • Introducción: • Descripción: • Elementos contractuales o vinculantes: • Conclusiones: • Anexos:

En esta estructura se debe diferenciar entre los componentes preliminares:

• Identificación: (en portada o similar) Título, compañía, autores, año, versión,

registros • Prefacio: Introducción general (se omite a veces) • Resumen: En función de la extensión y naturaleza del documento • Introducción: Planteamiento general. Objeto del documento. Alcance. Historia. Antecedentes. Justificación.

de aquellos que son el núcleo del documento técnico, a saber:

• Descripciones: – Técnica: del “Problema” y de la “Solución” – Organizativa: Descomposición. Asignación – Económica: Valoración de elementos

• Elementos contractuales: Plazos, prestaciones, elementos entregables, protocolos, etc.

• Conclusiones: (Revisión/resumen de los aspectos más notables) • Anexos: Técnicos. Justificativos. Descriptivos. Documentales

Page 251: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica

243

243

El cuaderno de diseño

Ha sido práctica común por muchos años volcar los resultados de avance del proyecto en un cuaderno diario de trabajo, denominado cuaderno de ingeniería o cuaderno de diseño. Este cuaderno, en el cual se asientan todos los trabajos desarrollados, sirve para generar la documentación técnica del proyecto, y es tal su importancia, que el mismo ha sido usado para dirimir casos de litigiosidad, sirviendo como prueba legal en conflictos sobre derechos de patentes.

En el cuaderno se vuelcan las ideas que surgen, los esquemas sobre los que se trabaja, los circuitos propuestos, los supuestos en que se basan los cálculos, la forma en que se realizan las pruebas, los resultados de estas, y las conclusiones que se derivan de ellas. El cuaderno representa el historial completo, y su consulta posterior permite saber porque se han tomado ciertas decisiones, o cuales son los valores de ciertas características, etc.

En el cuaderno se deben anotar los trabajos desarrollados con los resultados hallados, tanto los positivos como los negativos. Los resultados que no salen como se predice en la teoría o no están de acuerdo con algún experimento previo, pueden ser la luz hacia un nuevo hallazgo. Cuando algo no resulta como se espera, hay una tendencia a excluirlo de la documentación del trabajo realizado, sin dedicar el menor esfuerzo al análisis de las causas que motivaron el fracaso del mismo. Pero, por malo que sea el resultado, por el solo hecho de que haya sido considerado como una idea a probar, merece que sea registrado con todo detalle; al menos de este modo se sabrá un modo de no lograr el objetivo para el que fue propuesto. En ciertos casos, en una etapa posterior del proyecto, aparecen dudas sobre aspectos que en su momento se piensa que no fueron considerados y que parecieran explicar discrepancias. La respuesta a estas dudas surge de la consulta de los registros que detallan la forma en que se realizo la prueba, y los supuestos que dieron base a la idea. Obviamente, para que esto sea efectivo no basta con realizar unas pocas notas. Cuando se procede así, el resultado es que la consulta arroja mas dudas que luces, resultando ininteligible o bien requiere un gran esfuerzo para entender anotaciones y resultados, y en casos extremos obliga a rehacer todo el trabajo. Se ha dicho que un buen cuaderno de trabajo permite reconstruir el proyecto muchos años después de haberse completado. Esa es la cualidad deseada.

El cuaderno no solo debe registrar los resultados de los trabajos efectuados, debiera incluir también las ideas que surgen a lo largo del desarrollo y que no son estudiadas en ese momento. Un buen cuaderno de diseño debiera seguir las siguientes reglas:

• Usar hojas numeradas • Mantener un índice en las primeras hojas, como referencia de los trabajos • Realizar las anotaciones en el momento en que se ejecuta el trabajo, en orden

cronológico • Anotar los resultados favorables y desfavorables, incluyendo las cosas que parecieran

no tener una explicación. • Si se comete un error, debe cruzarse con una línea, no tacharse o borrarse • No deben arrancarse hojas • No deben dejarse hojas en blanco • Todos los datos deben mantenerse en su forma original: gráficos, fotos, esquemas. Si

hubiera necesidad de replantear algún tratamiento se incluirá respetando el orden cronológico.

• Los gráficos dibujados a mano alzada, sirven solo para marcar tendencias • Se debe hacer referencia a los libros, manuales, revistas, notas de aplicación, hojas de

datos, patentes y cualquier otra información que sea usada • Las anotaciones deben hacerse con tinta, y ser legibles. No se debe escatimar espacio

a las anotaciones. Se debe buscar la mayor claridad posible • Firmar y fechar cada entrada el mismo día en que se realiza

Page 252: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica

244

244

Por años a los ingenieros de desarrollo llevar el cuaderno de trabajo les insumía un tiempo importante, especialmente cuando se debían volcar muchos datos, procesarlos y luego construir gráficas para interpretarlos. Actualmente, hay disponibles paquetes específicos dedicados a la administración de proyectos, con los cuales se lleva un registro de archivos electrónicos, combinando los diversos paquetes de CAD, siendo el cuaderno solo un asiento de las ideas que se manejan, los conceptos principales, y los bosquejos o esquemas básicos. El uso de asientos electrónicos facilita el intercambio de información entre todos los integrantes de un equipo de desarrollo de modo rápido y seguro. Es tal la potencialidad actual que muchos proyectos son llevados a cabo por un equipo de trabajo cuyos integrantes se encuentran físicamente dispersos en distintos países, actuando peso a ello como si todos trabajaran en un mismo recinto.

Con CAD incrustados dentro de un sistema de administración de proyectos, es posible llevar a su estado final la documentación final del proyecto. Es decir, el esquemático del circuito podrá existir en el cuaderno de ingeniería en la forma de boceto, mientras se esta elaborando, pero luego debe ser llevado a formato electrónico con un CAD apropiado ( Protel (Altium) , Orcad (Cadence), Mentor, Cadstar, etc), con lo cual se facilitan las simulaciones, verificaciones y posteriores correcciones, garantizando su consistencia. Esta documentación integrara la Documentación Técnica del proyecto ( el como ), mientras que el cuaderno de ingeniería servirá de apoyo para elaborar la memoria final del proyecto ( el porque ), y será además un registro que marcara la evolución del proyecto. Ayudamemorías Cuando se trabaja en un área específica de diseño con frecuencia se debe enfrentar un mismo tipo de problemas, como es el caso de equipos para la industria automotriz, equipos para electromedicina, equipos de comunicaciones, etc, y en tales casos suele ser de ayuda contar con una ayudamemoria.

Una ayudamemoría es un listado de puntos que deben ser considerados cuando se esta trabajando sobre un problema particular. Cuando para estos puntos se ha establecido y consolidado una solución, la misma pasa a integrar una regla de diseño, o un listado de verificaciones.

La ayudamemoría, es además, una ayuda importante para la tarea de planeamiento, y es usada en forma rutinaria en muchas áreas. De no existir, puede ser de gran utilidad armar una, la cual se ira engrosando con el tiempo. Esto ocurrirá, cuando en el desarrollo de un proyecto se encuentra algún problema imprevisto, lo cual es una buena oportunidad para pensar si el mismo debe ser incluido en la ayudamemoría. La oferta de proyecto

La Oferta de Proyecto puede surgir como respuesta a una petición, o bien ser una

propuesta no solicitada. Cualquiera sea el caso debe siempre:

• Ser un documento para convencer (ganar un proyecto). • Describir los "retos" (problemas) a afrontar (resolver). • Proponer objetivos, soluciones y metodología, y • tener un tamaño en relación con la complejidad (y presupuesto)

La Oferta de Proyecto debe separar el contenido conceptual: • Objetivos del proyecto ¿Para qué? ¿Por qué? • Descripción y especificaciones ¿Qué es lo que se hace?

Page 253: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica

245

245

• Organización y planificación ¿Quién?.¿Como?.¿Cuando?.¿Donde?.¿Con qué medios?.

• Estimación de costos – de diseño (Diseño + Ingeniería) ¿Cuanto? – de fabricación (Fabricación + Control + Empaque). ¿Cuanto?

del contenido de detalle:

• Antecedentes y Justificación • Descripción Técnica • Planificación • Oferta económica (Presupuesto) • Propuesta de Contrato: descriptores con vinculación contractual

Son elementos descriptores de la vinculación contractual:

• Elementos de (entrada) partida • Elementos de salida (a entregar). • Protocolo (pruebas) de aceptación. • Hitos: Técnicos y Económicos • Condiciones de pago • Condiciones de comienzo • Condiciones de finalización. • Otros: penalizaciones, rescisión, discrepancias .....

En resumen, la oferta de proyecto responde a la siguiente estructura:

• Identificación: (Portada) Título, Compañía, Fecha, (Versión) • Resumen • Introducción: - Generalidades. Alcance. Objeto del proyecto.

- Historia. Antecedentes. - Justificación del proyecto.

• Descripción Técnica: del Problema y de la Solución. • Descripción Organizativa: Descomposición. Asignación. • Propuesta Económica: Desarrollo/Ingeniería y Construcción • Elementos Contractuales: Plazos. Hitos. Protocolos. (Precontrato) • Conclusiones: (Recapitulación final) • Anexos: Técnicos. Justificativos. Descriptivos. Documentales

La documentación asociada al Proyecto Final de Carrera (P.F.C.) es un ejemplo de documento técnico. Esta documentación normalmente se ajustara a una estructura similar a la siguiente:

• Identificación. (Título. Autor. etc.) • Prefacio, agradecimientos... (opcional). • Índice detallado (1 a 2 páginas, 30 a 60 entradas con número de página). • Resumen (opcional). • Introducción. (5-10%)

– Historia. Antecedentes. – Definiciones. Glosario de términos. – Justificación del proyecto.

• Objetivos. (Propuesta técnica). (5-15%) – Planteamiento del problema a resolver.

• Requerimientos.

Page 254: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica

246

246

• Especificaciones funcionales y de diseño. – Diseño sistemático.

• Propuesta de alternativas de diseño. • Elección de una solución

• Anteproyecto. Estudios de factibilidad técnica • Estudios de Factibilidad

– Factibilidad de tiempos. Planeamiento y programación – Factibilidad económica – Factibilidad legal y responsabilidad civil

Descripción (Técnica).(20-25%) – Diagrama de bloques (hard). Descripción detallada de cada bloque, y detalle de cálculo de sus elementos. – Diagrama de estados, o flujo, (soft). Descripción de subrutinas. Listados comentados del código

Medidas. Evaluación. Resultados. (5-10%) Estudios de fiabilidad de hard y de soft (5-10%) Conclusiones. (5-10%)

– Excelencias. Objetivos alcanzados. – Fallos. Recomendaciones para futuros diseños

Anexos. (40-60%) Técnicos. Justificativos. Descriptivos. Documentales – A1.- Título + índice – A2.- Título + índice etc..

Bibliografía – LIBROS.- Autor. Título. Editorial. Fecha – REVISTAS.- Autor. Título. Nombre de la revista. Fecha-Volumen. Páginas

Gestión de la documentación del proyecto En la realización de los proyectos se maneja gran cantidad de información y

documentación. Cuando el hallar, organizar y administrar la documentación no se ajusta a un procedimiento, o este es inadecuado, no solo esto acarreara mayores costos, sino que también se incrementa la posibilidad de generar errores y de retrasar la conclusión del proyecto.

Una forma de lograr un sistema eficiente para el manejo de la información es recurriendo a un sistema centralizado y único. Esto, sin embargo no es suficiente. Es necesario que exista una estructura de directorio y subdirectorios que permita ir almacenando de un modo consistente la documentación a medida que es generada, evitando duplicaciones y reduciendo los tiempos de búsqueda de la información. Idealmente debería existir un método para acceder ( logearse ) con posibilidad de realizar hyperlinks hacia los diversos documentos. Además, debería poder aprovechar la estructura de muchos documentos generados en proyectos anteriores, y acceder a una biblioteca que contenga todos los documentos o procedimientos generales propios de la organización.

Un sistema de gestión de la información debiera contemplar, entre otras cosas:

Responsable o coordinador Medio y modo de almacenamiento Codificación y otras convenciones de numeración y codificación Ciclo de revisión Formas de implementación Sistema de distribución Autorizaciones de acceso Registro de los accesos

Page 255: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica

247

247

Será necesario disponer de un sistema de gestión de documentos cuando:

La empresa esta o pretende estar dentro la ISO9000 Alguno de los clientes, o una regulación gubernamental, así lo exigen El propio departamento calidad así lo requiere El coordinador del proyecto lo requiere Los usuarios del producto lo requieren

La documentación deberá guardarse definiendo una estructura de directorios y

subdirectorios, figura 2, de tal modo que la misma:

sirva para identificar cada paso del proceso del proyecto aclare que tareas deben realizarse y cuales no evite la superposición de documentos fuerce a que los mismos se realicen en el orden correcto sea consistente con el resto de la información de todo el proyecto ayude en la introducción de los cambios de ingeniería sirva como medida para evaluar el esfuerzo del diseño, útil tanto para la

dirección de la empresa como para mostrar a los clientes

Fig.2

Page 256: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica

248

248

Los tipos de documentación que se manejan en un proyecto son muy variados, derivándose de muy diversos programas de ayuda en el diseño: paquetes de CAD, procesadores de texto, planillas de cálculo, bases de datos, etc. Estos documentos se refieren a:

Planos, dibujos, esquemas Listado de Partes y componentes Reglas de diseño Inventarios Estudios de ingeniería Ordenes de cambio de ingeniería Control de cambios Descripción de procesos de manufactura Planes de entrenamiento y capacitación Descripción de tareas Protocolos y planes de ensayo Informes de ensayos Análisis de desvíos Análisis de causa raíz Manual de mantenimiento Manual de operación Etc.

El primer documento será sin duda un Pedido de Cotizacion (Request for Quotation,

RFQ) o un Requerimiento de Propuesta (Request for Proposal, RFP), a partir de los cuales se derivara el PDD (Product Definition Document ). A estos documentos se agregara e integrara el Plan de Gestión del Proyecto (Project Management Plan, PMP). El plan, además de identificar a las personas responsables del diseño, define que persona ( o personas ) serán responsables de la verificación de la salida del diseño y de la aprobación de cada uno de los documentos, e incluye otros detalles referidos a las tareas a ejecutar, tales como que diagramas, análisis y estudios que deben realizarse, y los derechos de acceso que tiene cada integrante del grupo de desarrollo, tanto sea para ver como para cambiar la documentación que integra el proyecto.

Todos los documentos integrados al sistema de documentación del proyecto deben contar con la correspondiente aprobación, pudiendo esta aprobación realizarse mediante firma electrónica, un registro de las cuales puede también ser parte de los archivos del proyecto. Además, cada documento debe tener el circuito de distribución; es decir, toda vez que se agrega o cambia un documento, el cambio sea comunicado a todos los involucrados.

Orden de cambio de Ingeniería ( ECO )

Para poder rastrear las diferentes versiones de un hardware es necesario que los

diferentes planos emitidos tengan un número, con su nivel de revisión, y referencia a las órdenes de cambio (ECOs) y documentos de control relacionados. Aunque esto pareciera sin importancia en pequeños proyectos, es siempre útil porque reduce posibles errores futuros, y no agrega mayor costo.

Es decir, para identificar un plano no basta con un titulo, es conveniente asignar un número, con cierto criterio de asignación. Es decir, un esquemático del circuito tendrá un numero que en parte es común con otros planos, a fin de facilitar su vinculación con los otros documentos relacionados con el mismo, como es caso por ejemplo de los diversos planos asociados a un circuito impreso ( planos del cobre, de mecanizado, agujeros, puntos de prueba, plano de pasta, ensamblando, antisoldante, serigrafía, etc), lista de partes. La placa de impreso misma debe tener impresa dicha identificación. El número de revisión usualmente es un número independiente del número de parte, dado que esto permite que los diferentes planos

Page 257: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica

249

249

puedan diferir solo en el número de versión. Es decir, si el cambio es solo por ejemplo el valor de un resistor, esto solo afectara la versión del esquemático.

También es posible que se rehaga el circuito impreso sin cambio en el esquemático, si solo se afecta una característica propia de este ( por caso, la holgura al cobre de la mascara antisoldante, el desplazamiento de un componente, o el retoque de una pista de impreso por razones de interferencia, etc ).

Cuando es necesario introducir una modificación en un equipo que ya ha sido despachado o que esta fuera del alcance del equipo de diseño, entonces debe emitirse una Orden de Cambio de Ingeniería, una ECO (Engineering Change Order). La ECO es una instrucción de cambio, en la cual se describe el equipo y la parte que debe ser modificada ( con referencia al número y versión vigente ), el tipo de modificación, la razón del cambio ( que cosas mejora o remedia), y su aplicabilidad ( si a todos, o solo a algunos ). La aplicabilidad determina a partir de cuando y quienes están involucrados, es decir si es:

• Mandataria para la actual y futuras producciones • Mandataria para todas las unidades en predespacho • Mandataria para las unidades ya despachadas • Opcional para las unidades ya despachadas , sujeto a la aparición de síntomas • Mandataria solo para la actual producción • No aplicable a producciones futuras, debido a que se va a realizar un cambio mayor

El número de ECOs no necesariamente reflejan la calidad del diseño, sino más bien la

capacidad de adaptación y mejora. La documentación emitida en un desarrollo se diferencia en documentos controlados y no

controlados. Toda documentación que este sujeta a un circuito de distribución debe ser controlada, y debiendo llevarse un registro de todos los documentos emitidos que han sido distribuidos, lo cual integrara un archivo de Documentos Controlados, en el cual constara su nivel de actualización y el circuito de distribución. Cada vez que se produce un cambio todos los documentos controlados deben actualizarse.

Cualquier copia de un documento controlado pasa a ser un documento no controlado. Obviamente, el uso de las mismas debiera evitarse.

Documentación de Equipo Final

Es común que acompañe a los equipos una documentación básica, en la cual se incluye:

• Garantía, con indicación del numero de serie • Manual de Usuario ( Resumen de características y detalles de operación) • Manual Técnico o de Servicio, dependiendo del equipo ( con recomendaciones

para la instalación y el mantenimiento, esquemas circuitales, con detalles de cada modulo, condiciones de prueba, etc )

Un manual es un documento que sirve como fuente continua de referencia, y es

necesario en aquellos productos en los que deba describirse particularidades de su operación ó necesidades referidas a su mantenimiento (conservación). Es imprescindible en productos complejos, donde la necesidad de información, de uso y técnica, debe permitir entender las limitaciones de uso del equipo, evitando su mal uso o abuso, y a la vez servir como guía para aprovechar toda su potencialidad operativa. Sintéticamente, las ventajas que resultan de emitir un manual son:

• personal ( del fabricante y del distribuidor) • Fomenta las ventas (informa al comprador) • Resuelve problemas (pequeños y virtuales)

Page 258: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica

250

250

Ejemplo: Manual de Operación de un Producto Industrial • Avance: Título. Índices de contenido, ilustraciones y tablas."Frontal del equipo".

Prefacio: símbolos. gráficos. • Introducción: Breve y atractiva. Naturaleza del producto. Propósito del manual.

Mantenimiento elemental, verificaciones básicas. • Descripción general: Que es el equipo. Especificaciones. • Teoría de la operación: Utilización a partir del diseño y funcionamiento interno. • Instalación: Elementos necesarios. Proceso. Verificación • Controles de operación: Mandos . Carátula. • Operación propiamente dicha: (incluye ejemplos) • Problemas y anomalías de funcionamiento: Guía de diagnosis. Corrección de defectos • Mantenimiento: Operaciones elementales • Índices alfabético y temático:

• Exime de responsabilidad por mal uso

teniendo como únicos inconvenientes los costes de “diseño” y producción. En muchos casos el costo puede reducirse significativamente recurriendo a la edición electrónica, apoyándose en modernos y potentes paquetes de CAD y cámaras digitales, realizando, además, una emisión en formato electrónico, por ejemplo en archivo con extensión .pdf, y empleando como soporte un CDROM. La ventaja que provee el soporte electrónico es que facilita enormemente la búsqueda temática. Esto puede verse facilitado además con la posibilidad de contar con actualizaciones periódicas del manual, bajadas desde la página de Internet del producto. Esto es mayormente aplicado cuando se trata de elementos para OEM (original equipment manufacturer,) pero no cuando el elemento esta destinado al usuario final. No debemos olvidar que el manual es una parte integrante del producto, por lo que debiera acompañar siempre al mismo.

Los objetivos básicos que deben considerarse cuando se diseña un manual habrán de tomar en cuenta que el mismo :

Sea útil Contenga un texto básico para atender la reparación y el mantenimiento del equipo Sea una referencia “completa” para la utilización No debe dar mas información que la necesaria Debe dar imagen de marca

actuando como condicionantes de diseño:

Tipo de equipo (a quien va dirigido, quien será el lector del manual) Usos y aplicaciones del equipo: donde, cuando, como, ....) Manuales de la competencia “Formato” del manual y “número de equipos” Estilo: Formato. Tamaño. etc.

Los manuales pueden ser diferenciados o clasificados según:

• mercado del producto - Comercial - Industrial - Militar

• contenido de la información - Operación - Mantenimiento

Page 259: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica

251

251

En la mayoría de los casos la realización del manual es una de las últimas etapas del proyecto, pero no necesariamente siempre es así. A veces es una de las primeras etapas, pudiendo incluso ocurrir que el manual este concluido aun antes de empezar el desarrollo del producto. En estos casos, prácticamente el manual es parte integrante de la definición del producto.

En la planificación de un manual se reconocen las siguientes etapas :

– Recopilación de la información. – Selección de datos y organización interna – Redacción :(Bocetos. Revisiones) – Edición – Distribución

y por lo general será necesario prever subcontrataciones, con su cronología asociada a la impresión, sesiones fotográficas, etc. Actualmente, la disponibilidad de paquetes de CAD, y cámaras digitales hacen que sea posible el trabajo dentro de la propia empresa. En la redacción del manual intervendrán:

– Ingenieros. – Escritores especializados. – Correctores idiomáticos

En los casos en que sea necesario la confección en idiomas múltiples ( por ejemplo

español y portugués para el MERCOSUR, o de múltiples idiomas, como es el caso de la Comunidad Económica Europea ), deberá cuidarse que la traducción sea técnica y no simplemente idiomática. El punto débil de muchas traducciones técnicas resulta por el uso de expresiones, giros, o terminología que hacen que el documento se vuelva ininteligible.

Como conclusión final, debemos tener siempre presente que :

– El manual es parte integrante del equipo. – Todos los productos que se usan o se reparan, requieren manual – Los manuales se hacen para ser usados

Este último punto es sumamente importante. Frente a un nuevo equipo, la mayoría de

los usuarios tiene un apresuramiento desmedido para conectar y empezar a usar o a evaluar sin antes leer el manual; no es necesario decir que esta es una posición equivocada y riesgosa. La primer tarea debe ser siempre la lectura del manual, viendo antes que nada las condiciones para desempaquetar, luego las recomendaciones de instalación y finalmente las referidas a la puesta en marcha del equipo.

Presentación con transparencias

La presentación con transparencias es una forma de comunicación en la cual se combinan textos, gráficos y la expresión oral con la idea de concitar la atención, sin que ello resulte pesado para al auditorio, y tratando de que se retenga la esencia del mensaje. Los métodos visuales han demostrados ser mucho mas efectivos que la presentación oral o visual independiente, si lo que se busca es la mayor retención del mensaje. Las reglas que deben seguirse para el diseño de transparencias deben tomar en cuenta que con las mismas se busca:

• Mejorar y simplificar la comunicación de ideas • Suscitar la atención en un punto o aspecto importante por vez, evitando

la distracción de los detalles • Lograr un mejor entendimiento a través del impacto visual de las ideas

desarrolladas, combinando esquemas simples, graficaciones y texto • Facilitar la exposición ( sirve de guía )

Page 260: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica

252

252

La transparencia no tiene por finalidad reemplazar la comunicación oral. Es decir, el expositor debe complementar la limitada información contenida en la transparencia. Dicho de otro modo: No tiene sentido que el expositor se limite a leer el texto de la transparencia a la audiencia.

APERTURA

Concitar la atencionIdentiticar el problema

CIERREResumen y conclusiones

NUCLEOTratamiento del tema

1. punto 12.punto 2

...............

hasta 5 puntos

El primer paso para armar una sesión basada en transparencias será definir la

estructura de la presentación basándose en un esquema como el que indica la figura 3; otro posible delineamiento seria el siguiente:

• Introducción (visión general) • Objetivos • Logros conseguidos • Descripción / Modelo ( obviar detalles ) • Ventajas y desventajas • Conclusiones

Para cada punto habrá que seleccionar el texto, los esquemas o dibujos y los gráficos que se consideran importantes, diseñando su distribución, tamaño de las letras, el armado de los esquemas o dibujos y la composición de los gráficos. Usualmente conviene trazar un primer boceto o plan de la presentación, delineando el trabajo que se quiere presentar, escribiendo los textos, haciendo luego correcciones y modificaciones, y rescribiendo nuevamente si fuera necesario. Como regla general, deberá:

Manejarse solo un concepto principal en cada transparencia Dejar espacio en blanco abundante Usar un tipo de letra simple Buscar claridad de conceptos Evitar las frases o sentencias demasiado largas Usar “Negritas” Dejar márgenes anchos No utilizar solo letras mayúsculas Rotular las partes importantes de los dibujos Numerar todas las transparencias No abusar de los colores

El tipo de letra debe estar en relación con el nivel de detalle, teniendo en cuenta que 1 mm = 3 “Puntos”, es decir

Fig.3

Page 261: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica

253

253

• Título (de 36 a 44 Puntos) j • Subtítulos (de 24 a 28 Puntos) j • Texto (de18 a 20 Puntos) j

Un ejemplo de BUENA transparencia, con una esquemática clara, y dibujos bien identificados, es la siguiente :

y ejemplo de una MALA transparencia seria el siguiente:

Page 262: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica

254

254

La idea de concentrar mucha información en una sola transparencia, hace que la misma se vea confusa, y no permita destacar los puntos importantes. Otro ejemplo de MALA transparencia seria la siguiente:

en la cual se abusa de texto distractivo, seguramente con la idea de mostrar el desarrollo de una demostración.

Una transparencia puede considerarse BUENA en la medida en que el texto sea el necesario, en lo posible autoexplicativo, y en la cual las figuras tengan apropiada rotulación. La siguiente transparencia podría considerarse buena, salvo por la falta de rotulación de ambos ejes.

Las pautas siguientes son algunos consejos a tener en cuenta para una presentación oral con transparencias :

Page 263: Libro Materia

INTRODUCCIÓN AL PROYECTO DE INGENIERÍA:Documentacion Tecnica

255

255

• Limítese el número de transparencias “solo texto” • Utilice frases mejor que definiciones. • Deje espacio en blanco para permitir leer bien • Use tamaño de letra grande. • Limite al mínimo la cantidad de información ( una idea por transparencia ) • Rotule las partes importantes de los dibujos • Limite la cantidad de transparencias, no más de una por minuto • Transparencias con mas de 3 curvas por grafico o mas de 20 palabras resultan

demasiado complejos • Si se necesita usar la misma transparencia mas de una vez en la exposición,

recurra a dos copias (evita la distracción de la audiencia ) • Terminada la exposición basada en una transparencia, se debe evitar la

proyección innecesaria de la misma. .

Page 264: Libro Materia
Page 265: Libro Materia

Índice alfabético

ACWP 47 Búsqueda Aislantes, ley de 113 secuencial 68 aleatoriedad de factores 16 uniforme 68 Altshuller 99 AMFE 24 CAD 12,97,211 Análisis Cadstar 97 competitividad 13 Calidad 177 diseño, fases A y B 130 aseguramiento de la 4,204 fiabilidad 130 casa de 13 fortalezas y debilidades 11 control estadístico 201 rentabilidad 55 costos 206 riesgo 57 de diseño 178 sensibilidad 58 de proceso 180 varianza 21 Despliegue de la función 13 odal de fallas y efectos 24 verificación de la 198

morfológico 99 Camino critico 34 ANOM 18 Caminos semicríticos 42 ANOVA 21 Canon 93 AOI 219 Capacidad de proceso 181,230, AQL 12,201 233,236, ARIZ 100 238,240 Arrhenius, ley de 112 Capacitación 172 Aseguramiento de la calidad 4 casa de calidad 13 AXI 219 causas Ayudamemoria 244 asignables 180

Barker, J.A. 81 especiales 180 comunes 180,199 BCWP 47 ciclo de vida 51

BCWS 47 CIM 211 Bell 91 Cmk 187 Bellcore 128 Complejidad ciclomática 147 Benchmarking 98 Conceptualización 10 bloquizacion 16 concesión 198 BOM 210 contención 198 Boundary scan 219 Contradicciones, 99 Búsqueda Control del proyecto 46 de Fibonacci 70 Correlación 102 de intervalo 68 Costo dicotómica 70 fijo 52 por gradiente 79 variable 52 por relación áurea 77 marginal 52

Page 266: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Índice Alfabético

Costo medio total 52 Diseño Costos no recurrentes 49 experimental 16 Costo objetivo 48 optimización 192 Costos por fallas orientado 209 de evaluación 206 para el ensamblado 213 de garantía 118,206 para el peor caso 228 de prevención 206 para la calibración 216 externas 206 para la manufacturabilidad 3,209 internas 206 para la soldadura 215 Cpk 182 para la verificación 218 CPM 33 por evolución 92 Creatividad 80,85 preliminar 11 Creatividad técnicas 97 probabilístico 231 Crecimiento de la fiabilidad 142 revisión del 4 criterio 59 robusto 194 Cuaderno de diseño 243 salidas de 2 curva de aprendizaje 4 validación 2 curva de operación 201 verificación 2

Diseños ortogonales de Taguchi 20 DEC 92 Disponibilidad 117,166

defecto tasa de 179 efectiva 171 defecto 178 intrínseca 171 defectuosidad 179 operativa 171 Definición de Producto 6 distribución documento de 7 beta 36 Del Buono 82 de Fisher 22 Delfos 39,100,101 documentación 2,3,9,145,241 Demanda 50 Documentación del proyecto 246 Depuración del diseño 142 Documentación de software 145 Desarrollo, metodología 3 documento detección, tasa de 25 de definición de producto 7 DFA 209 de equipo final 245 DFM 209 técnico 241 DFT 218 DOE 2, 17,178,208 Diagnosticabilidad 176 DOT 2,220 Diagrama 17 arbol de fallas 17,208 ECO 248 causa efecto 43 Ecodiseño 26 de barras 98 Edison 85,87,93,101 de bloques 208 Elasticidad 50 de covariación 98 Ensayos de espina de pescado 33 acelerados 111 de flechas 43 censurados 109 de Gantt 33,36, de aceptación 133 39,43,47 de caracterización 19 PERT 96 de fiabilidad 132 Diseño, El cuaderno de 243 de optimización 19

258

Page 267: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Índice Alfabético

Ensayos Fiabilidad exploratorios 19 expresión general 113 fraccionarios 20 extrapolada 106,115 progresivos 133 mejora de la 130 repetidos 16 metas 118 replicados 16 observada 106 truncados 109 predicción de la 120 Ergonómico, aspecto 9 Fink 86 Ericsson 93 FLEX 58 Escenarios definición de 101 Flujo de caja descontado 55 Especificación contenidos 8 FMEA 24,174,178 Estabilidad 224 FT 218 tratamiento para la 226 FTA 2,24 Estimación de tiempos 40 FTQ 213,220,231Ética, códigos 30 función Experiencia 172 de mantenibilidad 165 Experimentos factoriales completos 19 de mérito 61 Eyring, modelo de 113 de prestación 61

de restricción 61 Factibilidad objetivo 61 económica 48 objetivo aumentada 65

tecnológica 27 Fallas Gantt, diagrama de 43 aleatorias 108 Gompertz, modelo de 104 catastróficas 106 grados de libertad 59 infantiles 108 gráficas inseguras 124 de caja 23 paramétricas 106,224 de Pareto 98,207 parciales 106 de Shewart 185 por degradación 108 Hadamard, 84 por solicitación 114 matriz de 18,20 primarias 105 HDBK-217 119,128 relevantes 106,133 HDBK-259 58 secundarias 105 HDBK-472 176 seguras 124 Hilbert 89 Fiabilidad Hot mockup 218 análisis de 130 IBM 50,93,101 crecimiento de la 142 ICT 218 de componentes 130,144 IEC 8,28,29,39 de software 130,145 IEC 140,177 ensayos de 133 Ingeniería de valor 15 estimada 106 Ingeniería concurrente 4

259

Page 268: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Índice Alfabético

Ingeniería simultanea 4 Manufacturabilidad 209 Ingreso marginal 53 diseño orientado a la 211 Innovación 81,91 Margen de tareas 34 Innovación independiente 35 incremental 91 libre 35 radical 91 total 34 Inspección 198 Markov, cadenas de 124 de proceso 198 Masushita 93 en línea 200 Matlab 19,22,23, especial 203 63,68,80, general 203 102,116, postproceso 200 126,133,

Interacción, efectos de 19 169,183, Internet 28 186,229 Invención 87 McCabe 147 Investigación Mentor 97 aplicada 83 Mercado objetivo 50 pura 83 Mercado potencial 50 Ishikawa 17, Método ISO 9000 204 de ajuste continuo 240 ISO 1,27,28,31 de ajuste por pasos 237 39,204 de avance retroceso 99

JAT 210 de intercambiabilidad parcial 231

JIT 210 de intercambiabilidad total 228

Juran 177 de las cadenas de Markov 124

kaizen 190 de las cargas 129 Kano 13 de las cero fallas 150

Lagrange 65 de programación lineal 80 Lagrangiano 67 de provocación 99 Legal, responsabilidad 29 de redes 121

LTPD 201 de selección por grupos 233 Mantenibilidad 131,153 del árbol de fallas 122

estimación de la 176 del camino critico 33 Mantenimiento del peor caso 228 correctivo 164 Metodología de desarrollo 3 curativo 164 Métodos de optimación 62

pasivo 163 Para la prueba de software 152

predictivo 162 Microsoft 93 preventivo 155 Microsoft Project 36 preventivo imperfecto 160 Minitab 116 primario 164 Modelo proactivo 154 de Duane 143 secundario 164 de Gompertz 104 Manufactura, sistemas de 210 de Pearl 104

260

Page 269: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Índice Alfabético

Modelo físico de fallas 120 Pensamiento lateral 97 industrial 95 Pfleeger 150 Modelo de Shooman 149 Philips 86,93 Modelos plan de acción 32 de crecimiento 102 Plan de proyecto 31 de crecimiento de fiabilidad 142 Planificación 31 De fiabilidad de software 148 poka-yoke 213 de fallas 115 Ppk 183 en S 103,104 Precio de venta 52 Monte Carlo, simulación de 41,58,122,225 Presentación con trasparencias 247 233,238 Primavera Project 36 Moore, Ley de 101,102 Proceso Motorola 196 Capacidad de 182,187,195 MPS 210 control estadístico de 184 MRD 8 Grafica de control de 185 MRP 210 Optimización de 186 MTBF 114 variabilidad debida a 222 MTBM 171 Programación lineal 43 MTTR 172 Programación cuadrática 43 muestreo Propiedad industrial 94 doble 203 Propiedad intelectual 94 múltiple 203 Prospección tecnológica 101 simple 203 Protel 97 Multiplicadores de Lagrange 65 Proyecto, concepto de 1 La oferta de 244

Nichos de mercado 6 QCC 185 no conforme 178 QFD 2,13 no conformes, índice de 179 QS-9000 205 Normas 9,28,29 RCA 86,93 Regresión 102

OEM 2,7,27,201,245 Relación costo beneficio 56 Optimización Responsabilidad profesional 29 del cálculo diferencial 64 Revisión del diseño 4 del diseño 192 RFQ 248 métodos 62 Ringii 100 metidos tabulares 63 Roberts 85 por programación lineal 80 RPN 25 Orcad 97 Orden de cambio de ingeniería 248 Seguridad 8,9,123 Seis sigma 196

Papel probabilístico 116 Serendipidad 91 Paradigma 3 serviciabilidad 153,174 Pareto, graficas de 98,207 Severidad, índice de 25

Patentes 94 Shewart 185 PDD 7,177 Shooman 146,149 eral, modelo de 104 Siemens 4,93,144 PERT 33,36,39,43,47 Simulación de Monte Carlo 40,42,121,225

261

Page 270: Libro Materia

INTRODUCCION AL PROYECTO DE INGENIERIA: Índice Alfabético

Simulación de Monte Carlo 233,238 Tiempo Sinergético, método entre calibraciones 161 Sistemas 100 mas probable 36 con carga compartida 125 medio entre fallas 114 con reserva 126 optimista 36 con reserva y mantenibilidad 127 pesimista 36 SMT 215 de retorno de inversión 56 Software TIR 56 fiabilidad de 145 Tolerancia métricas de complejidad 146 asignación 221 modelos de fiabilidad 148 en el diseño 220 protección de 95 métodos de diseño 227 Sony 86,93 Torbellino de ideas 100 SPC 178,184 TQM 178 SQC 178,201 TRI 56 Strowger 88 TRIZ 99

Taguchi 65 UL 8 diseño ortogonal de 20 Validacion 131

Diseño robusto de 194 Valor actualizado neto 55 Función de perdidas de 189,195,240 valor agregado 10, 48 Tasa de detección 25 VAN 55 Tasa de fallas 107 Variaciones operativas 224 estimación 109 Varianza requerimientos 108 dentro de grupo 21 Tasa interna de retorno 56 entre grupos 21 Técnica de evaluación y revisión de programas 33,36 VDA 4 Tecnología transferencia de 241 VDI 4 Teoría de la invención 99 THM 215 VE 2,178 Tiempo Viabilidad 11 de mantenimiento medio 170 Weibull 115 de reposición de servicio 172 Williams, J. 84 entre acciones de conservación 161 Xerox 93 entre acciones de mantenimiento 171 ZQC 214

262