ELABORACIÓN DEL PLAN DE PRODUCCIÓN EN UNA EMPRESA DEL SECTOR
JABONES, INTEGRANDO MODELOS DE PROGRAMACIÓN LINEAL Y EL ANÁLISIS DE
SERIES DE TIEMPO BOX-JENKINS.
TRABAJO DE GRADO
JUAN CAMILO DÍAZ HERRERA
DIRECTOR
Ing. JUAN CARLOS GARCÍA DÍAZ Ph. D
PONTIFICIA UNIVERSIDAD JAVERIANA
INGENIERÍA INDUSTRIAL
ECONOMÍA
BOGOTÁ D.C, ABRIL 2014
ELABORACIÓN DEL PLAN DE PRODUCCIÓN EN UNA EMPRESA DEL SECTOR
JABONES, INTEGRANDO MODELOS DE PROGRAMACIÓN LINEAL Y EL ANÁLISIS DE
SERIES DE TIEMPO BOX-JENKINS.
TRABAJO DE GRADO PARA OPTAR POR LOS TÍTULOS DE
INGENIERO INDUSTRIAL Y
ECONOMISTA
JUAN CAMILO DÍAZ HERRERA
DIRECTOR
Ing. JUAN CARLOS GARCÍA DÍAZ Ph. D
PONTIFICIA UNIVERSIDAD JAVERIANA
INGENIERÍA INDUSTRIAL
ECONOMÍA
BOGOTÁ D.C, ABRIL 2014
AGRADECIMIENTOS
El autor expresa sus más sinceros agradecimientos a
Profesor Juan Carlos García Díaz, docente de la Pontificia Universidad Javeriana y
director de este trabajo de grado por su guía y apoyo a través de sus conocimientos,
experiencias y visión.
A la profesora Martha Misas, docente de la Pontificia Universidad Javeriana por sus
pertinentes consejos y apoyo para la realización de este trabajo.
Y por último, a Alianzas y/o Industrias Alta Pureza S.A a través de la alta gerencia y todas
aquellas personas que de una forma u otra dedicaron su tiempo a colaborar en la
realización de este trabajo de grado.
TABLA DE CONTENIDO
1 INTRODUCCIÓN ......................................................................................................... 1 1.1 Presentación General del Trabajo ......................................................................... 1 1.2 Mercado de Marcas Propias a Nivel Global y Regional ......................................... 2 1.3 Mercado de Marcas Propias a Nivel Nacional ....................................................... 3 1.4 La Necesidad de un Buen Pronóstico en la Planeación ......................................... 3 1.5 Estructura General del Trabajo de Grado .............................................................. 5
2 PLAN AGREGADO DE PRODUCCIÓN ...................................................................... 8 2.1 Capacidad Operativa ............................................................................................. 8 2.2 Planificación de la Producción Utilizando Programación Lineal ............................. 9
3 CARACTERIZACIÓN DEL SISTEMA DE PRODUCCIÓN ........................................ 10 3.1 Descripción General de la Empresa .................................................................... 10
3.1.1 Reseña Histórica ........................................................................................... 10 3.1.2 Misión ........................................................................................................... 11 3.1.3 Visión ............................................................................................................ 11 3.1.4 Productos, Clientes y Participación ............................................................... 11 3.1.5 Organigrama ................................................................................................. 12
3.2 Proceso Productivo y Caracterización ................................................................. 12 3.3 Estaciones de Trabajo ......................................................................................... 14 3.4 Recursos ............................................................................................................. 15
3.4.1 Recurso Mano de Obra ................................................................................. 15 3.4.2 Recurso Máquina .......................................................................................... 16
3.5 Representantes Tipo ........................................................................................... 16 3.6 Estudio de Tiempos Estándar de Producción ...................................................... 17
3.6.1 Etapas del Estudio de Tiempos ..................................................................... 17 3.6.2 Seleccionar el Trabajador Tipo Para el Estudio de Tiempos ......................... 18 3.6.3 Registrar toda la información significativa. .................................................... 18 3.6.4 Desglosamiento de la operación por elementos ............................................ 18 3.6.5 Registro de los tiempos transcurridos por elemento ...................................... 19 3.6.6 Valoración del Desempeño del Operario ....................................................... 21 3.6.7 Determinación del tiempo estándar ............................................................... 22 3.6.8 Cálculo del tiempo estándar por elemento .................................................... 22
3.7 Capacidad Disponible .......................................................................................... 27 3.7.1 Cálculo capacidad disponible recurso Hombre ............................................. 28 3.7.2 Cálculo capacidad disponible recurso Máquina ............................................ 30
3.8 Costo Unitario de Producción .............................................................................. 31 3.8.1 Costos de mano de obra directa ................................................................... 32 3.8.2 Costos de materia prima e insumos .............................................................. 33 3.8.3 Costos de almacenamiento ........................................................................... 34 3.8.4 Costos fijos ................................................................................................... 36 3.8.5 Costos de ruptura ......................................................................................... 36 3.8.6 Costos de Contratar y Despedir .................................................................... 37
4 PRONÓSTICO DE LA DEMANDA EN EL HORIZONTE DE PLANEACIÓN ............. 39 4.1 Teoría General Sobre Decisión y Pronóstico con Series de Tiempo .................... 39
4.1.1 Descripción de los Pronósticos en la Planeación .......................................... 39 4.1.2 Funciones de pérdida de error de pronóstico simétricas. .............................. 40
4.2 Descripción de los Datos ..................................................................................... 40 4.3 Add In en Excel Para el Manejo de Series de Tiempo Para Uso Empresarial. ..... 42
4.3.1 Instalación de ASTEX en Microsoft Excel ..................................................... 43
4.3.2 Funcionamiento de ASTEX ........................................................................... 43 4.3.3 Estructura de ASTEX .................................................................................... 44
4.4 Metodología Lineal: Box-Jenkins Modelo ARIMA ................................................ 45 4.4.1 Modelo General ............................................................................................ 47 4.4.2 Etapa de Identificación .................................................................................. 49 4.4.3 Etapa de Estimación ..................................................................................... 60 4.4.4 Etapa de Diagnóstico .................................................................................... 61 4.4.5 Etapa de Pronóstico ...................................................................................... 64
4.5 Metodología comparativas ................................................................................... 69 4.6 Pronóstico del Mejor Modelo ............................................................................... 72 4.7 Capacidad Requerida del Horizonte de Planeación ............................................. 74
4.7.1 Capacidad Requerida Frente a Capacidad Disponible .................................. 74
5 PLANEACIÓN DE LA PRODUCCIÓN ...................................................................... 76 5.1 Construcción del Modelo de Programación Lineal ............................................... 76 5.2 Incorporación de atributos al conjunto de información ...................................... 83 5.3 Integración GAMS en ASTEX .............................................................................. 88 5.4 Resultados del Modelo ........................................................................................ 88
6 ANÁLISIS DE BENEFICIOS ECONÓMICOS DEL PLAN DE PRODUCCIÓN EN LA ORGANIZACIÓN ............................................................................................................. 93
6.1 Costo de Implementar la Propuesta .................................................................... 93 6.1.1 Costos de mano de obra ............................................................................... 93 6.1.2 Costos de licencias ....................................................................................... 94
6.2 Beneficios y Contribuciones del Proyecto ............................................................ 94 6.3 Comportamiento de las Variables Ante Cambios en la Demanda. ....................... 97 6.4 Análisis de Sensibilidad o Análisis Posóptimo ................................................... 100
7 CONCLUSIONES .................................................................................................... 102
8 RECOMENDACIONES............................................................................................ 103
9 BIBLIOGRAFÍA ....................................................................................................... 104
10 ANEXOS ............................................................................................................... 109 10.1 Caracterización de la Organización ................................................................... 109
10.1.1 Tabla de Referencias ................................................................................ 109 10.1.2 Productos, Clientes y Participación ........................................................... 110 10.1.3 Organigrama Alianzas y/o Industrias Alta Pureza S.A ............................... 112 10.1.4 Diagrama de Caja Negra .......................................................................... 112 10.1.5 Fichas Técnicas de Máquinas ................................................................... 113 10.1.6 Representantes Tipo ................................................................................. 118 10.1.7 Diagrama de Operaciones ........................................................................ 119 10.1.8 División de Operaciones por Elemento ..................................................... 124
10.2 Formas de Estudio de Tiempos ......................................................................... 126 10.2.1 Formato estándar para la realización del estudio de Tiempos ................... 126
10.3 Suplementos Personales .................................................................................. 127 10.4 Muestreo Del Trabajo ........................................................................................ 128 10.5 Procedimientos Matemáticos ............................................................................ 130
10.5.1 Desarrollo de Ecuación de Capacidad Disponible Recurso Hombre. ........ 130 10.6 Análisis de las Series de Tiempo ...................................................................... 131
10.6.1 Funciones de Pérdida de Pérdida de Error de Pronóstico Simétricas ....... 131 10.6.2 Funciones De Pérdida de Error de Pronóstico Asimétricas. ...................... 133 10.6.3 Descripción de los Datos .......................................................................... 136
10.6.4 Esquema Metodología ARIMA .................................................................. 140 10.6.5 Estabilización Varianza ............................................................................. 141 10.6.6 Prueba Dickey Fuller Aumentada ADF ...................................................... 142 10.6.7 Prueba de Raíz Unitaria para la serie LR1000 .......................................... 144 10.6.8 Función de Autocorrelación ACF y Función de Autocorrelación Parcial PACF 151 10.6.9 Metodologías SCAN, ESACF y MINIC ...................................................... 153 10.6.10 Identificación Serie LR1000 .................................................................... 159 10.6.11 Método de Máxima Verosimilitud (ML) .................................................... 171 10.6.12 Teoría Sobre Diagnósticos del Modelamiento ARIMA ............................. 174 10.6.13 Estimación-Diagnóstico Serie LR1000 .................................................... 182 10.6.14 Valor Real Vs Ajuste del Modelo ............................................................. 187 10.6.15 Esquema Rolling y Algoritmo en MATLAB .............................................. 189
10.7 Complemento ASTEX ....................................................................................... 193 10.7.1 Ventana Para la Instalación del Add/In ..................................................... 193 10.7.2 Estabilización de la Varianza con ASTEX ................................................. 193 10.7.3 Estabilización del Nivel Anderson con ASTEX .......................................... 200 10.7.4 Prueba de Raíz Unitaria ADF con ASTEX ................................................. 202 10.7.5 Diagnostico Normalidad y Media Cero con ASTEX ................................... 203 10.7.6 Integración GAMS –ASTEX para la planeación de la producción ............. 206
10.8 Códigos De Programación ................................................................................ 209 10.8.1 Código VBA para la Extracción de las Series de Interés en Consolidado de Ventas. 209 10.8.2 Código VBA para la Automatización de la Transformación Estabilizadora de Varianza ................................................................................................................. 209 10.8.3 Código GAMS para Plan de Producción ................................................... 213
10.9 Resultados ........................................................................................................ 217 10.9.1 Resultados de las transformaciones estabilizadoras de varianza. ............. 217 10.9.2 Resultados Estabilización Varianza Método Anderson .............................. 220 10.9.3 Resultados identificación series restantes ................................................. 221 10.9.4 Resultados Estimación-Diagnóstico Series Restantes .............................. 242 10.9.5 Resultados Diagnóstico Rolling con Rolling2.m. ....................................... 252 10.9.6 Pronósticos de los Mejores Modelos ......................................................... 282 10.9.7 Resultados Programación Lineal GAMS-ASTEX ...................................... 286 10.9.8 Resultados Análisis del Comportamiento de las Variables en la LP .......... 289 10.9.9 Resultados Análisis Posoptimal. ............................................................... 292
10.10 Plano de la Organización .................................................................................. 306 10.11 Tablas ............................................................................................................... 308
10.11.1 Tablas Para Pruebas de Raíz Unitaria. ................................................... 308 10.12 Modelos Comparativos ..................................................................................... 310
10.12.1 Ajuste modelos comparativos ................................................................. 310 10.12.2 Explicación Modelos Comparativos. ........................................................ 313
Índice de Tablas
Tabla 1 Disposición Recurso Mano de Obra .................................................................... 15
Tabla 2 Disposición Recurso Máquina ............................................................................. 16
Tabla 3 Tiempos estándar de producción unitarios .......................................................... 26
Tabla 4 Unidades teóricas de referencias por lote de 300kg ............................................ 26
Tabla 5 Tiempo necesario para la fabricación de 1 lote=300kg........................................ 27
Tabla 6 Capacidad máquina por estación de trabajo ....................................................... 31
Tabla 7 Capacidad máquina en tiempo normal ................................................................ 31
Tabla 8 Capacidad máquina en tiempo extra ................................................................... 31
Tabla 9 Costo de mano de obra directa en tiempo normal ............................................... 33
Tabla 10 Costos de materias primas ................................................................................ 33
Tabla 11 Costos desagregados de almacenamiento........................................................ 35
Tabla 12 Volumen Bodega almacenamiento .................................................................... 35
Tabla 13 Costos unitarios de almacenamiento por referencia .......................................... 36
Tabla 14 Costos fijos ....................................................................................................... 36
Tabla 15 Costo total de despedir un operario .................................................................. 38
Tabla 16 Valores típicos de y su transformación ........................................................... 50
Tabla 17 Resumen de potencias estabilizadoras de la varianza ...................................... 51
Tabla 18 Ordenes de integración basado en Anderson (1976) ........................................ 54
Tabla 19 Resumen Pruebas Raíz Unitaria ....................................................................... 55
Tabla 20 Grado del polinomio de tendencia TR500 ......................................................... 58
Tabla 21 Resumen Modelos Tentativos (1:50) ................................................................. 60
Tabla 22 Modelos Escogidos ........................................................................................... 63
Tabla 23 Evaluación dentro de muestra ARIMA ............................................................... 64
Tabla 24 Coeficientes de LINLIN ..................................................................................... 65
Tabla 25 Esquema Rolling LR1000 .................................................................................. 66
Tabla 26 Esquema Rolling R250 ..................................................................................... 67
Tabla 27 Esquema Rolling R500 ..................................................................................... 68
Tabla 28 Esquema Rolling R1500.................................................................................... 68
Tabla 29 Esquema Rolling R3000.................................................................................... 68
Tabla 30 Resultados evaluación dentro de muestra - Método Comparativo ..................... 69
Tabla 31 Resultados evaluación fuera de muestra R250 - Método Comparativo ............. 70
Tabla 32 Resultados evaluación fuera de muestra R500 - Método Comparativo ............. 70
Tabla 33 Resultados evaluación fuera de muestra R1000 - Método Comparativo ........... 71
Tabla 34 Resultados evaluación fuera de muestra R1500 - Método Comparativo ........... 71
Tabla 35 Resultados evaluación fuera de muestra R3000 - Método Comparativo ........... 71
Tabla 36 Efectividad ARIMA frente Automático ................................................................ 72
Tabla 37 Pronósticos ARIMA todas las series.................................................................. 73
Tabla 38 Pronóstico ARIMA Limite Superior .................................................................... 73
Tabla 39 Pronóstico ARIMA Límite Inferior ...................................................................... 73
Tabla 40 Capacidad requerida marzo 2014 - agosto 2014 ............................................... 74
Tabla 41 Grado utilización máquina marzo 2014 - agosto 2014 ....................................... 75
Tabla 42 Inventario de seguridad ..................................................................................... 87
Tabla 43 Costo de reserva de inventario de seguridad .................................................... 87
Tabla 44 Resultados LP Unidades a producir en Tiempo Normal .................................... 88
Tabla 45 Resultados LP Unidades a producir en Tiempo Extra ....................................... 89
Tabla 46 Resultados LP Inventario Final Producto Terminado ......................................... 89
Tabla 47 Resultados LP Número de Horas Extra Necesarias .......................................... 89
Tabla 48 Resultados LP Número de Trabajadores Necesarios ........................................ 89
Tabla 49 Resultados LP Número de Contrataciones por Estación ................................... 89
Tabla 50 Resultados LP Número de despidos por Estación............................................. 89
Tabla 51 Rangos de oscilación ........................................................................................ 92
Tabla 52 Costo variable Mano de Obra ........................................................................... 93
Tabla 53 Costos fijos de Mano de Obra Precios obtenidos de la página web www.dane.gov.co/candane/ ..................................................................................... 94
Tabla 54 Costos de licencias ........................................................................................... 94
Tabla 55 Método Propuesto Frente a Método Actual ....................................................... 96
Tabla 56 Tabla Transformaciones de potencia .............................................................. 141
Tabla 57 Resumen de test Dickey Fuller. ....................................................................... 144
Tabla 58 Tabla de prueba de Dickey Fuller Aumentada para LR1000 ........................... 145
Tabla 59 Pruebas F para escoger el número de rezagos en ADF .............................. 146
Tabla 60 Resultados propagación hacia atrás Lag Length Choice ................................. 147
Tabla 61 Regresión de prueba ADF LR1000 con constante y tendencia ASTEX ........... 149
Tabla 62 Regresión de prueba ADF LR1000 con constante sin tendencia ASTEX ........ 151
Tabla 63 Comportamientos típicos de ACF y PACF Tomado y modificado de Guerrero(2003) ...................................................................................................... 153
Tabla 64 Tabla SCAN .................................................................................................... 155
Tabla 65 Tabla Teórica SCAN para un proceso ARMA(2,2) .......................................... 155
Tabla 66 Tabla ESACF .................................................................................................. 157
Tabla 67 Tabla Teórica ESACF para un proceso ARMA(1,2) ........................................ 157
Tabla 68 Tabla MINIC .................................................................................................... 159
Tabla 69 Función de autocorrelación y Ljung Box Q - Stat LR1000 ............................... 160
Tabla 70 Función de Autocorrelación Parcial LR1000.................................................... 161
Tabla 71 Tabla SCAN serie LR1000 (1:50) .................................................................... 163
Tabla 72 Tabla ESCAF serie LR1000 (1:50) .................................................................. 164
Tabla 73 Tabla MINIC Serie LR1000 (1:50) ................................................................... 164
Tabla 74 Tabla BIC modelos SCAN y ESACF ............................................................... 165
Tabla 75 Tabla MAPE para la serie LR1000 (1:50) obtenida por ARIMAIN.m ................ 169
Tabla 76 Tabla RMSE para la serie LR1000 (1:50) obtenida por ARIMAIN.m ............... 169
Tabla 77 Tabla MAE para la serie LR1000 (1:50) obtenida por ARIMAIN.m .................. 169
Tabla 78 Modelos tentativos para la serie LR1000 (1:50) .............................................. 170
Tabla 79 Estimaciones preliminares LR1000(1:50) ........................................................ 183
Tabla 80 Estimación fase 2 LR1000(1:50) ..................................................................... 185
Tabla 81 Ejemplo Esquema Rolling ............................................................................... 190
Tabla 82 Serie R1000 Ordenada para Estabilización de Varianza ................................. 196
Tabla 83 Determinación λ de para la variable R1000 ..................................................... 197
Tabla 84 Transformación estabilizadora de varianza R1000 .......................................... 198
Tabla 85 Desviaciones Estándar de LR1000. Estabilización Nivel ................................. 200
Tabla 86 Resultados Anderson(1976) ASTEX ............................................................... 201
Tabla 87 Modelos tentativos para la serie DLR250 (1:45) .............................................. 224
Tabla 88 Identificación modelos tentativos serie TR500 (1:50) ...................................... 230
Tabla 89 Modelos tentativos para la serie DLR1500 (1:50) ............................................ 236
Tabla 90 Identificación modelos tentativos serie LR3000(1:50) ..................................... 241
Índice de Gráficas
Gráfica 1 Detrending TR500 ............................................................................................ 58
Gráfica 2 Detrending LR3000 .......................................................................................... 59
Gráfica 3 Evolución del costo total frente a la demanda ................................................... 97
Gráfica 4 Evolución de la fuerza de trabajo frente a la demanda ..................................... 98
Gráfica 5 Evolución del número de contrataciones frente a la demanda .......................... 99
Gráfica 6 Función de pérdida MSE Fuente: Realizado por el autor ................................ 132
Gráfica 7 Función de pérdida MAE Fuente: Realizado por el autor ................................ 132
Gráfica 8 Función de pérdida LINEX Fuente: Realizado por el autor ............................. 134
Gráfica 9 Función de pérdida LINLIN Fuente: Realizado por el autor ............................ 135
Gráfica 10 Ajuste Vs. Real serie R250(1:45) .................................................................. 187
Gráfica 11 Ajuste Vs. Real serie R500(1:50) .................................................................. 187
Gráfica 12 Ajuste Vs. Real serie R1000(1:50) ................................................................ 188
Gráfica 13 Ajuste Vs. Real serie R1500(1:50) ................................................................ 188
Gráfica 14 Ajuste Vs. Real serie R3000(1:50) ................................................................ 188
Gráfica 15 Transformación Estabilizadora de Varianza LR1000 .................................... 198
Gráfica 16 QQ plot modelo M8 serie LR1000(1:50) ....................................................... 204
Gráfica 17 QQ plot modelo M9 serie LR1000(1:50) ....................................................... 205
Gráfica 18 Pronóstico serie R500(1:45) ......................................................................... 283
Gráfica 19 Pronóstico serie R500(1:50) ......................................................................... 283
Gráfica 20 Pronóstico serie R1000(1:50) ....................................................................... 284
Gráfica 21 Pronóstico serie R1500(1:50) ....................................................................... 284
Gráfica 22 Pronóstico serie R3000(1:50) ....................................................................... 285
Gráfica 23 Evolución inventario R250 ante cambios en la demanda .............................. 289
Gráfica 24 Evolución inventario R500 ante cambios en la demanda .............................. 290
Gráfica 25 Evolución inventario R1000 ante cambios en la demanda ............................ 290
Gráfica 26 Evolución inventario R1500 ante cambios en la demanda ............................ 291
Gráfica 27 Evolución inventario R3000 ante cambios en la demanda ............................ 291
Índice de Ilustraciones
Ilustración 1 Cuotas de mercado de marca de distribuidor por país (volumen) .................. 3 Ilustración 2 Pestaña ASTEX ........................................................................................... 43 Ilustración 3 Ventana condiciones del modelo GAMS ASTEX ......................................... 88 Ilustración 4 Moldeadora por inyección .......................................................................... 113 Ilustración 5 Termoencogedora 1................................................................................... 114 Ilustración 6 Termoencogedora 2................................................................................... 115 Ilustración 7 Marmita...................................................................................................... 116 Ilustración 8 Estación Envase-Pesa-Tapa ...................................................................... 117 Ilustración 9 ACF Serie LR1000 ..................................................................................... 160 Ilustración 10 PACF Serie LR1000 ................................................................................ 161 Ilustración 15 Ventana Instalación ASTEX ..................................................................... 193 Ilustración 16 Formulario para la estabilización automática de la varianza ................... 195 Ilustración 17 Formulario Ordenar Serie ........................................................................ 196 Ilustración 18 Formulario Estabilización Nivel Anderson (1976) ..................................... 201 Ilustración 19 Mensaje no imprimir, Estb. Nivel Anderson .............................................. 202 Ilustración 20 Formulario Prueba de Raíz Unitaria ADF ASTEX .................................... 202 Ilustración 21 Formulario Supuesto Normalidad ............................................................. 204 Ilustración 22 Ventana Media Cero 1 ............................................................................. 205 Ilustración 23 Ventana Media Cero 2 ............................................................................. 206 Ilustración 24 Ventana modelo copiado con éxito ASTEX .............................................. 207 Ilustración 25 Ventana archivo .txt no encontrado ASTEX ............................................. 207
1
1 INTRODUCCIÓN
1.1 Presentación General del Trabajo
Los problemas relacionados con la escasez o abundancia de producción aparecen
cuando dos objetivos contrarios entre dos agentes económicos están presentes en un
mismo sistema. Las firmas desean maximizar sus beneficios sujetos a restricciones de
capacidad, demanda y presupuestos llevando a cabo una planificación adecuada de la
producción, considerando costos de producir como lo son los insumos necesarios como el
capital (máquina y equipo) y el trabajo (operarios); mientras que los consumidores desean
maximizar su función de utilidad sujetos a una restricción presupuestal además de sus
preferencias sobre consumo las cuales eventualmente pueden cambiar en el tiempo, lo
que cambiaría el comportamiento de la demanda y por tanto la firma debe ajustar su
producción ante cambios en la misma.
Dentro de las requerimientos establecidos por muchas organizaciones para poder llegar a
contar con un óptimo en su producción, minimizando sus costos de mantener y producir
sujeto a sus posibles restricciones anteriormente mencionadas, es vital contar con un
pronóstico de demanda eficiente para la toma de decisiones en el corto plazo. La forma
como muchas organizaciones realizan los pronósticos de demanda para la planificación y
toma de decisiones no es siempre la más adecuada debido a la poca información con la
que pueden contar y el escaso personal capacitado para dicha tarea.
Este concepto ha llevado al planteamiento de modelos exactos y heurísticos que
representen los distintos escenarios en los que se puede ver enfrentada la organización,
con aras de efectuar el proceso de toma de decisiones de la producción con la menor
incertidumbre posible, para buscar estrategias que impacten positivamente en las
utilidades.
En el presente trabajo de grado se proyecta la demanda de una organización de tamaño
mediano del sector de jabones en Bogotá utilizando la metodología de series de tiempo
lineal ARIMA propuesta por Box y Jenkins en la década de los 70, se comparan los
resultado del modelo con metodologías de pronósticos automáticos utilizados en muchas
organizaciones con el objeto de probar la eficiencia del pronóstico ARIMA bajo muestras
pequeñas en condiciones de demanda variante. Se procede entonces incluyendo el
modelo de pronóstico más adecuado en la optimización de la programación lineal, con el
objeto de mejorar la exactitud de los resultados en la implementación de un modelo de
programación para la planeación de la producción de una empresa e integrar ambas
herramientas para buscar hacer más robustos los resultados y minimizar la función de
costos de la organización.
2
1.2 Mercado de Marcas Propias a Nivel Global y Regional
El mercado oculto de marcas propias, conocidas también como marcas blancas, se define
como la marca que es proporcionada por una tienda, grande superficie, almacén o
superete y cuyo nombre es propio de dicho establecimiento. Este mercado tuvo su boom
en Europa en la década de los años noventa y se presentó en el momento en que las
aerolíneas crean sus propias cadenas low-cost de las cuales se comenzaron a formar
otras empresas de servicios que permitían brindarle al consumidor un servicio de bajo
costo. Sin embargo, fue en el siglo XXI cuando estas marcas propias comenzaron a entrar
con más fuerza en el mercado, esto es debido principalmente a que las estrategias
financiaras de las familias de clase media cambiaron, se endeudaban más, consumían
más, incrementaron su nivel de vida y gastaban mucho más de lo que su bolsillo podía
darles; ante esta necesidad de suplir la demanda de consumidores que cada vez buscan
un precio más accesible a sus necesidades y cuya masa fue creciendo, se crean
empresas que incursionaron en el mercado de marcas propias y estas impulsaron a otras
empresas en lo que se conoce hoy en día como el efecto imán (Véase Mejías y Valentín
2009).
Se cree que esta “oleada blanca” comenzó a formarse principalmente debido al contexto
económico que se presentaba en la Europa del siglo XXI. En el caso de España, por
ejemplo, el consumidor se vio en la obligación de reducir su gasto, por la necesidad de
incrementar su ahorro y controlar su margen presupuestal debido a la crisis crediticia y los
problemas de inflación causados por el encarecimiento del petróleo lo que ocasionó el
hundimiento del consumo y el desplome de la economía española, favoreciendo de esta
manera a las marcas cuya distribución se daba a través de las marcas blancas.
Las marcas propias han evolucionado desde sus inicios, han pasado de una competencia
de imitación de marcas de fabricante a un mercado con una identidad propia con una muy
buena relación calidad-precio. Con el paso del tiempo, la percepción que tiene el
consumidor a nivel global sobre las marcas propias ha cambiado mucho en cuanto a
calidad se refiere y ahora se piensa que las marcas propias son productos que pueden
competir muy fuertemente con marcas de fabricantes y son una muy buena alternativa
para mejorar las finanzas de la familia.
La cuota de participación de las marcas blancas en el mercado europeo es bastante alta y
este fenómeno ha venido creciendo todos los años. Según el Anuario internacional de la
Marca de Distribuidor de la PLMA (Private Label Manufacturers Association), para el 2013
las cuotas más elevadas de participación de marcas propias se situaban en Suiza con un
53% seguidos por España con 51% y Reino Unido con 45%. Mientras que el país con la
menor cuota de participación se presenta en Italia con un 20%.
3
Ilustración 1 Cuotas de mercado de marca de distribuidor por país (volumen)
Fuente: Anuario Internacional de la Marca de Distribuidor - PLMA
1.3 Mercado de Marcas Propias a Nivel Nacional
Tanto en el caso regional como a nivel nacional, los hábitos del consumidor no parecen
estar a favor del mercado de marcas propias; sin embargo, la cultura del consumo blanco
ha presentado crecimientos en los últimos años. Según la Federación Nacional de
Comerciantes - Fenalco, para el 2012 Colombia fue el país con mayor participación en
valor para marcas propias en la región con un 14% comparado con los demás países de
América Latina cuyos porcentajes se sitúan en una franja entre el 5 y el 10 por ciento.
Además, según un estudio de Raddar, en el 2011 ocho de cada diez colombianos
incluyeron al menos un producto de marca propia dentro de sus compras regulares.
Se observa que las cuotas de mercado de las marcas propias en la región están muy por
debajo de las participación que se le da a este nicho en el viejo continente. Inclusive,
Colombia que es el país con mayor participación en América Latina con un 14% no
alcanza a igualar al país con la menor cuota de participación de Europa con un 20%. Esto
parece no ser muy relevante, sin embargo si se observa el trasfondo de este mercado y
como lo señala la Dirección de Estudios Económicos de Fenalco, las micro, pequeñas y
medianas empresas Pyme, son las grandes beneficiadas con la comercialización de
marcas propias en las grandes superficies puesto que son las que producen de forma
masiva estos productos. Por lo tanto, al fomentar el consumo de marcas blancas en el
país se estaría incentivando de manera directa a las Pyme, la productividad nacional, el
producto interno, el empleo y se beneficiaría a la economía nacional en general. Un
ejemplo de este tipo de empresas a nivel nacional es Alianzas y/o Industrias Alta Pureza
S.A. la cual será la empresa de estudio para el presente trabajo de grado y de la cual se
hablará en detalle más adelante.
1.4 La Necesidad de un Buen Pronóstico en la Planeación
Como lo expone Schroeder (1996) y Chase et al. (2009), dentro de la clasificación de
tipos de pronósticos, el ordenamiento por grado de exactitud en el corto plazo muestra
4
que el mejor pronóstico dentro del tipo lineal es el método de series temporales Box-
Jenkins aplicando modelos autoregresivos de media móvil integrados (ARIMA por sus
siglas en ingles) para buscar el mejor ajuste de los valores del pasado con el fin de
realizar predicciones futuras.
La combinación de dos herramientas poderosas como lo son la optimización de
operaciones en ingeniería industrial utilizada para la planeación de la producción y la
metodología de series temporales de Box y Jenkins, puede llegar a mejorar
ostensiblemente la planificación de la producción en las empresas, minimizando el riesgo
de sobrecostos por excesos o faltantes en la producción. La metodología de Box y
Jenkins es una técnica econométrica utilizada en la economía para determinar el
comportamiento de series económicas univariadas como la inflación, desempleo o
Producto Interno Bruto (PIB); base para la emisión de juicios tanto a nivel
macroeconómico en las decisiones de política monetaria del Banco Central como a nivel
microeconómico en el caso de inversionistas y empresas para la toma decisiones
basando sus expectativas en pronósticos inflacionarios o del crecimiento de la economía
Como se verá en detalle más adelante, en muchas ocasiones se evalúan series de tiempo
como la demanda de un bien cuyas pérdidas asociadas a los errores de pronóstico son
distintas dependiendo del signo (excesos o faltantes) como una serie con función de
pérdida simétrica. Esto trae consigo una mala especificación y una minimización de
costos que pueden llegar a ser muy alejada de la realidad. El presente trabajo pronostica
la demanda de 5 referencias de jabón lavaloza a través de la comparación de resultados
obtenidos por un modelo y el modelo seleccionado automáticamente1 a
través del software comercial SPSS, con el uso de funciones de pérdida de error de
pronóstico simétricas y asimétricas. Los resultados son confrontados y se elige el mejor
modelo de pronóstico para la optimización del plan agregado de producción.
El objeto de estudio puede llegar a ser un problema si tenemos en cuenta que muchos
pronósticos en las PYMES hoy en día se realizan de forma sencilla y las empresas toman
decisiones de producción en el corto plazo que pueden llegar a ser erróneas lo cual
traería sobrecostos asimétricos atribuidos al exceso de inventarios o faltantes en los
pedidos por la baja producción para cumplir la demanda independiente y variable, esto
debido a la pobre planeación de la producción, la poca exactitud de los pronósticos y la
falta de un análisis más profundo a la hora de realizar pronósticos. Como lo expone
Chase, Jacobs y Aquilano (2009):
“Los pronósticos son vitales para toda organización de negocios, así como
para cualquier decisión importante de la gerencia. El pronóstico es la base de
la planeación corporativa a largo plazo. En las áreas funcionales de finanzas y
1 El término “automático” en el contexto de este trabajo hace referencia a el evento cuando el
método de pronóstico se realiza únicamente incluyendo la serie original en un paquete estadístico y este busca el modelo que más se ajuste a los datos mostrando las medidas de error de pronóstico, sin ningún análisis previo de la serie estudiada.
5
contabilidad, los pronósticos proporcionan el fundamento para la planeación
de presupuestos y el control de costos. El marketing depende del pronóstico
de ventas para planear productos nuevos, compensar al personal de ventas y
tomar otras decisiones clave. El personal de producción y operaciones utiliza
los pronósticos para tomar decisiones periódicas que comprenden la
selección de procesos, la planeación de las capacidades y la distribución de
las instalaciones, así como para tomar decisiones continuas acerca de la
planeación de la producción, la programación y el inventario.”
(Chase, Jacobs, & Aquilano, 2009, p. 468)
El problema surge entonces de dos diferentes fuentes. La primera, por falta de tiempo y
recursos en las organizaciones para tomar decisiones más precisas que les permitan
reducir sobrecostos de producción, pues como arguye Schroeder (1996) los modelos de
series de tiempo econométricos requieren un poco más de tiempo y son más costosos,
sin embargo estos se compensan por la exactitud de los resultados. La segunda fuente
surge de la comodidad a la hora de realizar pronósticos sencillos utilizando herramientas y
software convencionales los cuales realizan pronósticos de manera rápida, casi
automática y usando técnicas estructuradas por formulas previas donde la única fuente de
conocimiento que debe tener la persona son los pocos parámetros necesarios que pedirá
el programa para realizar el pronóstico, incluso en algunos programas se puede realizar
esta tarea automáticamente por medio de la optimización de dichos parámetros. Mientras
que el modelaje econométrico de series de tiempo es más complejo pues requiere
experticia y fundamentos teórico-prácticos por parte de la persona para realizar el modelo
de pronóstico que mejor se ajuste a la serie deseada.
Según una encuesta realizada por el Aberdeen Group en julio de 2011 por Peter Ostrow
sobre el manejo y las ventajas de los pronósticos de demanda en 304 organizaciones
entre abril y mayo de 2011, donde el 65% de las compañías fueron de América, 27% de
la región EMEA (Europa, Middle East and Africa por sus siglas en ingles) y 8% del pacifico
de Asia, se determinó que los ingresos totales de las compañías cuyo pronóstico de
ventas era mucho más confiable era 10 puntos porcentuales mayor que las demás
compañías, además esta confianza y efectividad en sus pronósticos mejora en 7.3 puntos
porcentuales el promedio de los logros por equipo en la cuota de ventas. Por lo que la
eficiencia y confianza de los pronósticos de venta en las organizaciones está encadenada
a una mejora en el rendimiento del día a día de la organización, esto se debe a que un
pronóstico más acertado ayuda a mejorar la toma de decisiones y mejora la planeación de
la producción e inventarios reduciendo así los costos ocultos derivados de un mal
pronóstico, Ostrow (2011).
1.5 Estructura General del Trabajo de Grado
El presente trabajo de grado estará conformado por 10 capítulos, los cuales se
especifican a continuación:
6
Capítulo 1. Introducción: Se hace una breve explicación del proyecto, se
caracteriza el sector en el cual el objeto de estudio se desenvuelve y la
problemática estudiada.
Capítulo 2. Plan Agregado de Producción: Para este capítulo se hace una
explicación breve de los conceptos de producción, planeación de la producción,
MPS, cálculo de capacidades productivas y otros conceptos fundamentales para el
entendimiento y desarrollo de este trabajo.
Capítulo 3. Caracterización del sistema de producción: Se describe de
manera general la organización del estudio, elementos que la componen, además
de la descripción detallada del proceso productivo. Dentro de este proceso se
escogen los representantes tipo y recursos humanos y máquina para concluir con
la elaboración del estudio de tiempos y el cálculo de la capacidad disponible, así
como de los costos de producción unitarios.
Capítulo 4. Pronóstico de la demanda en el horizonte de planeación: Para
este capítulo se realizará una breve introducción a la teoría de pronósticos y
decisión, en seguida se realiza la descripción de los datos que se utilizarán, se
continúa con la explicación y aplicación del modelo lineal univariado ARIMA a las
series de estudio la cual es comparada con los resultados de modelos
automáticos, para concluir con la selección del mejor modelo de pronóstico que
entrará a formar parte del cálculo de la capacidad requerida del horizonte de
planeación.
Capítulo 5. Planeación de la producción: Este capítulo describe la
construcción del modelo de Programación Lineal (LP) utilizado para la elaboración
matemática del plan de producción, así como las diferentes ramificaciones que
puede tomar para elaborar las estrategias de programación lineal que se pueden
acoplar a las necesidades de la organización. Concluye con los resultados que
arroja el modelo de LP y su interpretación.
Capítulo 6. Análisis de beneficios económicos del plan de producción: Para
este capítulo se intentará evaluar el proyecto en términos de costos de
implementación y beneficios y contribuciones del proyecto; se hará un análisis
financiero costo-beneficio, se analizarán e interpretaran los resultados y por último
se entrará a hablar sobre las contribuciones que brinda el proyecto.
Capítulo 7. Conclusiones: Se muestran todas las conclusiones del
desarrollo del trabajo, indicando los impactos de los métodos cuantitativos
utilizados sobre la identificación del problema.
Capítulo 8. Recomendaciones: Para este capítulo se hace una
retrospectiva de las problemáticas asociadas a las condiciones de la planta que
pueden llegar a influir en el desempeño normal de las operaciones, se dan una
serie de sugerencias, para que en el caso de que la empresa esté en disposición
de tomarlas las pueda acoger para su propio beneficio. Adicionalmente se harán
recomendaciones sobre los procedimientos lineales y no lineales del pronóstico
realizado en el trabajo.
Capítulos 9 y 10, presentan la bibliografía consultada y los anexos al
documento respectivamente.
7
Complementario al trabajo, se realizó un aplicativo (add-in) en Excel a través de códigos
de programación en el lenguaje Visual Basic para Aplicaciones (VBA), el cual tiene el
objetivo de automatizar algunos procedimientos teóricos de series de tiempo que serán
utilizados en este trabajo de grado así como otros procedimientos útiles para el manejo de
los pronósticos de la organización y que pueden llegar a ser utilizados en cualquier
momento que lo desee y bajo diferentes condiciones de entrada. Este aplicativo será
explicado en detalle desde el Capítulo 4, más específicamente en la Sección 4.3. y puede
ser consultado en el CD anexo a este documento.
Adicionalmente, se trabajó con el lenguaje de programación MATLAB para el desarrollo
del esquema rolling de evaluación fuera de muestra en el Capítulo 4 y el lenguaje GAMS
para la programación lineal del plan de producción en el Capítulo 5.
Se recomienda tener en los siguientes aspectos para el adecuado entendimiento del
presente trabajo
Todas las herramientas presentadas aquí son basadas en teorías estadísticas y
por tanto deben ser tratadas como tal. Estos modelos no están hechos para llegar
a ellos, sino para basarse en ellos. Son una guía de apoyo, más nunca una
evidencia tacita de la realidad, puesto que el carácter intrínseco de un modelo es
la representación abstracta, matemática y conceptual de un fenómeno o sistema
con el objetivo de describirlo, analizarlo y simularlo.
Debido a que el trabajo de grado está orientado a las carreras de Ingeniería
Industrial y Economía. Se recomienda el conocimiento previo de técnicas
estadísticas, matemáticas y econométricas para el adecuado entendimiento del
trabajo, particularmente en el Capítulo 4. Pronóstico de la demanda en el horizonte
de planeación .
8
2 PLAN AGREGADO DE PRODUCCIÓN
Dentro del entorno de la planeación de la producción se encuentran diferentes
requerimientos que intervienen en el sistema; éstos se pueden dividir en factores externos
fuera de nuestro alcance y control como comportamientos de los consumidores,
disponibilidad de materias primas, demanda del mercado, ciclos económicos o capacidad
externa y factores internos que podemos controlar como capacidad física actual, fuerza de
trabajo actual, niveles de inventario y actividades requeridas para producir. En general
existen 3 estrategias para planear la producción actualmente estas se dividen en
estrategias de ajuste, fuerza de trabajo estable (horas de trabajo variables) y estrategia de
nivel. Estas tres comprenden cambios en las horas de trabajo el inventario, la
acumulación de pedidos y el tamaño de la fuerza de trabajo. Véase Chase et al (2009).
Sistemas actuales de manufactura necesitan cada día más una planeación estructurada
de su producción teniendo en cuenta elementos que afectan los nivel de producción e
inventarios como las proyecciones en los niveles de ventas, los ciclos económicos de la
demanda, los cambios estructurales de la economía y los tendencias del comportamiento
de consumo. Los factores internos siempre son más fáciles de controlar y varían en cada
organización y por tanto cada empresa debe escoger el plan de producción que mejor se
adapte a sus características intrínsecas y considerando los resultados que se necesiten
como finalidad.
Everett et al. (1991) definen la planeación estratégica como “el proceso de reflexión
aplicado a la actual misión de la organización y a las condiciones actuales del medio en
que ésta ópera, el cual permite fijar lineamientos de acción que orienten las decisiones y
resultados futuros” por lo que la planeación de la producción dentro del marco de la
planeación estratégica debe estar guiado por la misión de la empresa y los factores
externos e internos que intervienen en la producción para mejorar la toma de decisiones y
la relación entre la producción y los insumos como capital, trabajo o mano de obra,
materiales y energía entre otros.
2.1 Capacidad Operativa
La capacidad se puede considerar en los negocios como la cantidad de producción
máxima que un sistema productivo es capaz de generar durante un periodo de tiempo
específico. Esta unidad de tiempo suele medirse como turnos o días hábiles al mes. En
términos efectivos la capacidad real es designada para efectos de planeación y depende
de lo que se piense producir.
Esta capacidad productiva se ve limitada en la mayoría de los casos por dos tipos de
recursos, las máquinas y el hombre, las cuales determinan la programación de las
actividades productivas en el horizonte de tiempo dado. Según la APICS2, la capacidad
se relaciona con la potencialidad técnica y económica que posee un sistema u
2 Sociedad Estadounidense de Control de Producción e Inventarios
9
organización productiva y la principal razón de una empresa es satisfacer la demanda de
los bienes y/o servicios sin exceder su capacidad, de ahí la importancia de cualquier
empresa de conocer sus límites, sus capacidades y su potencial.
Normalmente se hace referencia a capacidad disponible como el tiempo con el que
cuenta un recurso también llamado estación de trabajo para hacer uso de su potencial
productivo. Se conoce como capacidad requerida al tiempo que le consume a un recurso
el fabricar la demanda pronosticada de todos los productos en un periodo de tiempo. Por
último, se conoce como capacidad utilizada a el tiempo utilizado de la capacidad
disponible para llegar a cubrir la capacidad requerida.
2.2 Planificación de la Producción Utilizando Programación Lineal
La programación lineal PL es una herramienta de la investigación de operaciones que
ayuda a asignar los recursos escasos de un agente económico entre las distintas
demandas que compiten por estos recursos. Los recursos como se dijo anteriormente
pueden llegar a ser recursos de tiempo, dinero, materiales, máquinas, o recursos
derivados del talento humano y estos recursos poseen limitaciones que se conocen como
restricciones las cuales deben ser incluidas en la programación lineal. Esta herramienta
es aplicada por los gerentes para encontrar la mejor asignación de recursos, adoptando
todas sus posibles restricciones con el objeto de maximizar la función de beneficios de la
organización o minimizar los costos, al igual que proporcionar la información necesaria
sobre otros recursos y su utilización. En el Capítulo 5 de este trabajo se analiza y
desarrolla paso a paso la planeación de la producción por medio de este tipo de
optimización.
Desde la década de los años 50 la programación lineal (PL) ha sido una herramienta
fundamental para muchas empresas y ha ayudado a ahorrar miles de millones de dólares.
Como lo define Hillier y Lieberman (2010), el uso más común de programación lineal
abarca el problema general de asignar de la mejor manera posible, es decir, de forma
óptima, recursos que son limitados para la sociedad a actividades que compiten entre sí
por ellos. La programación lineal utiliza modelos matemáticos para representar estos y
otros tipos de problemas que se enfrentan en el cotidiano.
El adjetivo lineal se utiliza cuando todas las funciones dentro de la programación son
polinómicas de primer grado. Mientras que el adjetivo no lineal se utiliza cuando estas
funciones son representaciones no lineales, es decir funciones polinómicas de orden
superior. Mientras que el término programación se refiere a la planeación de las
actividades para obtener un óptimo.
El procedimiento general para resolver problemas de programación lineal se llama método
simplex el cual fue desarrollado por George Dantzig en 1947. Este procedimiento
algebraico con fundamentos geométricos es utilizado en varios paquetes de computadora
hoy en día y además brinda la posibilidad de realizar un análisis posóptimo del modelo
con el uso de herramientas como el análisis de sensibilidad.
10
3 CARACTERIZACIÓN DEL SISTEMA DE PRODUCCIÓN
Con el objetivo de llegar a entender el desarrollo de la planeación estratégica y los
pronósticos, en este capítulo se procederá a realizar la respectiva caracterización del
sistema productivo de la empresa de estudio ALIANZAS Y/O INDUSTRIAS ALTA
PUREZA S.A. pasando por su descripción general, su proceso productivo, sus recursos o
estaciones de trabajo, el cálculo del tiempo total por estación de trabajo y por producto, el
cálculo de las capacidades y el cálculo de los costos unitarios de producción.
3.1 Descripción General de la Empresa
Alianzas y/o Industrias Alta Pureza S.A. es una empresa colombiana constituida en el año
2000. Está orientada a la producción y comercialización de productos masivos en las
líneas de aseo del hogar, se ha consolidado en el país desarrollando portafolios de
productos innovadores con valores agregados y un alto estándar de calidad para los
clientes, las grandes superficies, los distribuidores y los pequeños comercios.
La idea de crear esta compañía surge de la necesidad de ALKOSTO S.A., de desarrollar
productos marca propia con pequeñas industrias; centros de negocios pequeños que por
su volumen de ventas y rotación, no ameritaban ser codificadas de manera directa.
La empresa se ha especializado en el desarrollo de marcas propias de sus clientes
principales, acompañándolos permanentemente en el seguimiento de las tendencias del
mercado y en el posicionamiento de sus marcas.
En vista de la gran aceptación y calidad de los productos bajo la sombrilla de la marca
ALKOSTO, los socios de la compañía deciden posesionar sus propias marcas,
registrando para ello la marca DESSIN, para todos los productos de la línea aseo hogar, y
la marca BODY BEAUTIES, para los productos de la línea aseo personal.
La organización tiene participación accionaria en cada una de las empresas productoras
de las líneas que comercializa, dando así la oportunidad a pequeños y medianos
empresarios de tener presencia con sus productos en el gran comercio colombiano.
3.1.1 Reseña Histórica
ALIANZAS S.A, es una empresa de tipo anónima legalmente constituida el 14 de julio de
2000 y cuya razón social es netamente la comercialización de productos de aseo y el
hogar, donde todos los productos se obtienen por Outsourcing a través de 9 proveedores;
no hay producción, solo comercialización. Por otro lado Industrias Alta Pureza S.A creada
en el 2007 y Plastiaromas S.A creada en el año 1998 son empresas productoras
independientes que fabricaban lava lozas y bolsas plásticas para la basura
respectivamente. Empresas que también hacen parte de la junta directiva del grupo.
Para el año 2008 se presenta la fusión estratégica entre Alianzas S.A e Industrias Alta
Pureza S.A como respuesta a presiones en cargas tributarias e impuestos en Industrias
11
Alta Pureza S.A. Creando así la nueva organización bajo el nombre Alianza y/o Industrias
alta Pureza S.A., la cual sigue teniendo el componente de comercialización bajo
externalización en Alianzas y el componente de producción de lava loza en Alta Pureza
S.A.
Es entonces importante aclarar que la realización del trabajo de grado está enfocada
hacia la planeación de la producción por parte del componente de Alta Pureza S.A, pues
es la que tiene procesos productivos en el grupo y como lo explica la Gerencia
Administrativa es la que más necesita de una planeación estratégica y un buen sistema
de pronósticos.
3.1.2 Misión
Es compromiso de la organización Alianzas y/o Industrias Alta Pureza S.A liderar el
mercado nacional colombiano, suministrando productos de aseo y limpieza a cada uno de
los hogares colombianos garantizando una excelente calidad y cumplimiento de las
normas de higiene y limpieza logrando el bien funcionamiento de los productos
manufacturados.
3.1.3 Visión
Convertirnos en empresa líder de los productos de aseo y limpieza en el ámbito nacional
e internacional, logrando una mejor calidad de vida, higiene y practicidad.
3.1.4 Productos, Clientes y Participación
Enfocados ya en Alta Pureza S.A, actualmente se producen lavalozas para dos grandes
mercados. Por un lado se tiene una participación en el marcado de marcas propias, y por
otro lado se cuenta con una marca privada llamada Dessin. Dentro de ambos mercados
se cuenta con una amplia gama de 58 referencias de la crema lava loza las cuales se
presentan en el Anexo 10.1.1. Tablas de Referencias.
Industrias Alta Pureza S.A cuenta con 4 clientes principales lo cuales son: Yep, Alkosto,
Makro (Aro) y Surtimax. La participación porcentual de los volúmenes de compra de cada
uno de estos clientes según los datos de ventas del mes de julio de 2013 se presenta en
el Anexo 10.1.2. Productos, Clientes y Participación.
Actualmente la empresa produce para 14 ciudades alrededor de Colombia, estas
ciudades son: Barranquilla, Bogotá, Cali, Cartagena, Cúcuta, Ibagué, Medellín, Montería,
Neiva, Pasto, Pereira, Santa Marta, Tunja y Villavicencio. La participación porcentual de
ventas en estas ciudades según datos del mes de julio de 2013 se presentan en el mismo
Anexo 10.1.2. Productos, Clientes y Participación. Como se puede observar, Bogotá
cuenta con más de la mitad de la participación en volúmenes de ventas, seguido por
Villavicencio, Medellín y Pereira. Sin embargo, el ordenamiento de ciudades a parte de la
capital puede variar un poco debido a las condiciones propias de cada mes.
12
3.1.5 Organigrama
Para consultar el organigrama diríjase a el Anexo 10.1.3. Organigrama Alianzas y/o
Industrias Alta Pureza S.A.
3.2 Proceso Productivo y Caracterización
El proceso de producción para la fabricación de jabón lavaloza comienza con la
elaboración del envase plástico el cual contendrá el producto terminado y que se realiza
dependiendo del volumen final para cada uno de los 5 posibles tamaños: 250, 500, 1000,
1500 y 3000 gramos. Por el momento la empresa únicamente produce envases para los
tamaños 1000g y 500g y los otros los externaliza en otra empresa. Este proceso de
fabricación del envase es un proceso completamente automatizado que genera dos
piezas por separado: la tapa y el envase mismo. Esta fabricación del envase comienza
cuando un operario mezcla una resina con un pigmento blanco en una caneca a una
proporción del 3 al 5%, la mezcla granular es succionada por la máquina de moldeo por
inyección HWA CHIN 210 – HC Series que lleva la mezcla a una tolva para ser
transportada por un embolo neumático el cual por medio de la transferencia de calor que
va creciendo desde 190, 200, 205 hasta los 210ºC progresivamente va generando la
pasta que por medio de inyección neumática va siendo empujada hasta pasar por una
boquilla que introduce la pasta en las cavidades del molde que genera la parte del envase
deseado y que luego son enfriados por la misma máquina para así poder llegar a producir
el envase deseado. La HWA CHIN 210 produce a un ciclo de 8 segundos en promedio por
cada 2 moldes (tapas o envase) dado que se tiene capacidad para dos cavidades a la
vez, su peso es de 6.8 toneladas y tiene una dimensión de 4.9x1.4x1.9 metros. Esta
máquina funciona las 24 horas del día de lunes a sábado debido a los costos tan altos en
el consumo de energía en la fase de preparación y alistamiento. Una vez terminado el
proceso de fabricación del envase se almacena en cajas como producto en proceso y se
ubica para su posterior uso.
La siguiente actividad dentro del proceso de fabricación del jabón lavaloza es el fajillado.
Esta actividad consiste en pegar por medio de un proceso de termosellado una película
plástica al envase, la cual se adhiere a partir del choque térmico que encoje la película y
hace que esta se auto selle en el envase. En este proceso el operario ubica la película
plástica en el envase el cual pasa a través de una banda que llega a una máquina la cual
le transfiere calor a una temperatura de 210ºC en promedio lo que hace que se encoja y
se auto adhiera la película al envase para salir por el otro lado de la máquina hacia un
contenedor y esperar por su posterior uso. El proceso de termo-sellado dentro de la
máquina toma entre 4 y 5 segundos mientras que el proceso de fajillado como tal toma
alrededor de 7 segundos según el concepto de expertos.
Paralelamente, se va realizando el proceso de mezclado del jabón lavaloza para poder
ser envaso en el molde previamente descrito. Este proceso de mezclado se realiza en
cuatro mezcladoras a temperatura ambiente de las cuales dos tienen una capacidad de
300kg cada una y las otras dos tienen una capacidad de 400 kg . Dado que la empresa
cuenta con 2 aromas para el jabón (limón y chicle) fueron destinadas dos mezcladoras
13
para un aroma y dos mezcladoras para el otro. Esta crema lavaloza es el resultado de la
mezcla de varios químicos los cuales deben ser pesados, dosificados y verificados
previamente antes de comenzar el proceso de mezclado. Estos insumos son
transportados al área de producción en el segundo piso por medio de un ascensor de
carga. Los componentes a mezclar dentro de la preparación son: ácido sulfónico,
carbonato de calcio, glicerina, silicato de sodio, carbonato de sodio, benzoato de sodio,
cuarzo, agua, fragancias (chicle, limón) y color (verde, rosa). Para realizar este proceso se
preserva el agua con benzoato de sodio agitándola constantemente, a continuación se
adiciona el ácido sulfónico y el carbonato de sodio manteniendo la agitación y se espera
que se genere su reacción química, en seguida se adiciona el carbonato de calcio a la
mezcla y posteriormente el cuarzo una vez más manteniendo la agitación. En seguida se
adiciona la glicerina y el silicato de sodio. Finalmente se adiciona la fragancia y el color a
la mezcla para terminar así el proceso de mezclado. Este proceso puede llegar a tardar
entre 80 y 120 minutos dependiendo de las condiciones ambientales y el tipo de mezcla.
Una vez terminada la mezcla, ésta entra a proceso de inspección por parte del ingeniero
de calidad para poder así determinar su adecuada consistencia, densidad, color, aroma,
viscosidad y otros.
Para poder llegar a envasar el producto mezclado, la crema lavaloza pasa directamente
de la mezcladora a la etapa de envasado por medio de una válvula que se abre y da paso
al material el cual cae por gravedad desde el segundo piso al primero hasta un embudo
que por medio de dos pistones neumáticos en combinación con un sistema eléctrico
empujan la cantidad deseada para cada uno de los tamaños de producto terminado. Esta
cantidad es graduada y programada por medio de sensores eléctricos los cuales terminan
diciéndole al pistón cuanta cantidad recoger del embudo y cuanta inyectar en el envase
final. Es en esta etapa que los tiempos de fabricación de las diferentes referencias según
su tamaño muestra su mayor variación, esto debido a que, por ejemplo, se envasará una
mayor cantidad de lavalozas de 250g que de 3000g en el mismo tiempo.
Una vez culminado el proceso de envasado, dentro del mismo puesto de trabajo del
operario, se procede a realizar la segunda inspección la cual tiene el objetivo de pesar el
producto terminado para garantizar que se le está entregando al cliente la cantidad que se
especifica en el envase. Esta inspección se le realiza a todos los productos terminados sin
excepción para llegar a garantizar una mejor calidad. Dentro de esta misma inspección de
pesaje, el operario tiene la oportunidad de verificar una vez más de manera visual y por
tacto la calidad del producto a entregar y está en la facultad de informar cualquier
inconformidad a sus supervisores. Una vez terminado el pesaje del producto se le
adiciona el código y pasa a ser almacenado en estantes para realizar el proceso de
secado el cual tiene una duración promedio de 24 horas a temperatura ambiente, esto con
el fin de obtener una consistencia ideal entre sólido y viscoso la cual es vital para lograr la
percepción de calidad en el producto final a los ojos del cliente.
En la etapa de embalaje del producto terminado se pueden tomar tres caminos diferentes.
El primero, si el amarre se realiza por medio de termo-sellado de a 6 o 7 lavalozas
14
apiladas una encima de la otra, el segundo si se empacan en cajas de una en una y el
último si el producto es una oferta “dos por uno” se termo-sellan de a dos productos
terminados apilados uno encima del otro y se ubican en cajas. Estos procesos de termo-
sellado se realizan de la misma manera que se realiza el proceso de fajillado, con los
mismos tiempos pero a temperaturas más elevadas de 300ºC. En seguida de esto el
producto es almacenado para su posterior despacho.
Cabe notar que el ordenamiento del proceso de producción cambia un poco si se trata de
una referencia tamaño 3000g, esto debido a que el proceso de fajillado se realiza después
de envasar, pesar, tapar y secar el material debido a que las dimensiones del envase no
permiten realizar un termosellado sin que se deforme el plástico por el calor. Por ello, al
envasar primero el jabón contenido en el envase sirve como soporte para que el envase
pase por la termoselladora y no se deforme el plástico. Una vez pase por la máquina, el
producto es empacado directamente en las cajas para esperar su despacho.
Los diagramas de operaciones para la producción del jabón lavaloza tanto para la
referencia tamaño 3000g como para las demás referencias pueden ser consultados como
Anexo 10.1.7. Diagrama de Operaciones al final del presente trabajo.
A manera ilustrativa se muestra en el Anexo 10.1.4. Diagrama de Caja Negra a
transformación del Estado A inicial el cual representa todas la materias primas a un
Estado B final que representa el producto terminado. Este proceso de transformación se
da a través de una “caja negra” que contiene una serie de recursos, herramientas,
insumos, conocimientos, formulas y acciones que alteran la materia prima para lograr el
producto terminado que satisface una necesidad.
3.3 Estaciones de Trabajo
En Alianzas y/o Industrias Alta Pureza S.A existen 5 estaciones de trabajo destinadas a
diferentes etapas del proceso productivo. Cada estación cuenta con diferentes recursos
los cuales serán descritos en la siguiente subsección. Una estación de trabajo está
definida como aquel espacio en la planta productiva donde los recursos hombre y/o
máquina se encargan de ciertos procesos de manera conjunta y que cumplen un fin
establecido para la organización.
1. La primera estación de trabajo es la de fabricación de cuerpos y tapas del envase
y comprende los procesos de fabricación y almacenamiento de envases.
2. La segunda estación es la de fajillado, la cual comprende los procesos de fajillar y
codificar.
3. La tercera estación es la de mezclado, la cual comprende los procesos de pesar,
dosificar y mezclar.
4. La cuarta estación es la de envasado, la cual comprende los procesos de envasar,
pesar y tapar.
5. La última estación es empacar y comprende únicamente la operación de empacar.
15
3.4 Recursos
Los recursos pueden ser clasificados den: mano de obra o humano, maquinaria,
materiales, recursos técnicos o tecnológicos y recursos financieros.
Como se mencionó anteriormente, se tendrá en cuenta para el desarrollo de este trabajo
los recursos mano de obra y recursos máquina. Cada estación puede contar con uno o
ambos recursos dependiendo de la estructura de cada una de ellas. A continuación se
dará paso a presentar los recursos con que se cuentan por cada una de las estaciones de
trabajo.
3.4.1 Recurso Mano de Obra
El recurso mano de obra es todo el trabajo que aportan los empleados de las diferentes
jerarquías organizacionales a la realización de las metas de la organización. El recurso de
mano de obra más específicamente se refiere a todo operario capacitado para una o
varias tareas específicas que permita a la organización cumplir con su meta productiva en
un horizonte determinado de tiempo.
Alianzas y/o Industrias Alta Pureza cuenta principalmente con un equipo de trabajo de 11
operarios capacitados3 para realizar tareas específicas de cada una de las etapas del
proceso.
Aunque cada operario tiene una fortaleza en una actividad de trabajo, puede existir el
caso que un operario tenga que cumplir funciones en otra actividad. En la práctica, las
actividades de envasar, pesar, tapar, fajillar y empacar se realizan por los mismos
operarios en todas las etapas y por tanto todos están capacitados para cualquiera de las 5
tareas. Sin embargo, la polivalencia disminuye en las etapas de fabricación de envases y
mezclado, esto debido a que son tareas que requieren un manejo mucho más
especializado de la máquina y por tanto no todos los operarios están en la capacidad de
hacerlo.
A continuación se presenta el número de operarios capacitados por estación de trabajo
para la disposición del recurso mano de obra.
Estación de trabajo Número de operarios
disponibles
Fabricación de envase (cuerpo y tapa) 1 operario
Mezclado 4 operarios
Fajillado, Envasado y Empacado 6 operarios
Tabla 1 Disposición Recurso Mano de Obra.
Fuente: Realizado por el Autor.
3 De acuerdo a información suministrada por la empresa correspondiente a la nómina del mes de
enero de 2014.
16
3.4.2 Recurso Máquina
Estos recursos máquina cuentan con una capacidad productiva al igual que el recurso
humano que limita la producción y la cual será descrita en una siguiente subsección.
La organización de estudio cuenta con un total de 9 máquinas especializadas para cada
estación productiva. Estas máquinas determinan la capacidad productiva más no quiere
decir que todas siempre están en uso constantemente. A continuación se presenta la
tabla con el número de máquinas por estación de trabajo.
Estación de trabajo Número de Máquinas
Fabricación de envase (cuerpo y tapa) 1 Máquina - Tipo A
Fajillado 2 Máquinas - Tipo B
Mezclado 4 Máquinas – Tipo C
Envasado 2 Máquinas – Tipo D
Empacado 1 Máquina – Tipo B
Tabla 2 Disposición Recurso Máquina.
Fuente: Realizado por el Autor.
En el Anexo 10.1.5 Fichas Técnicas de Máquinas se presenta las especificaciones
técnicas de cada uno de los tipos de máquina que la organización tiene como capital
productivo.
3.5 Representantes Tipo
Como se mencionó anteriormente la organización cuenta con un número considerable de
referencias organizadas según el tipo de cliente. Por lo que la determinación de las gamas
representativas de productos se dio a partir de dos principios que expone Sule (2001). El
primer principio establece que el representante tipo debe contener los procesos
tecnológicos de todos los demás componentes del grupo y el segundo que éste debe
contener, en la medida de lo posible, la mayor parte del gasto del tiempo de trabajo de
grupo, de este modo las desviaciones serán las mínimas.
La escogencia de estos representantes tipo es esencial para la adecuada planeación
productiva sin dejar de lado ninguna referencia relevante, además es vital para hacer
valer la capacidad de la planta esto debido a que de llegar a escoger inadecuadamente
estos representantes, se tendería el caso que se sub estima o sobre estima la capacidad
productiva de la organización trayendo consigo aproximaciones erradas de los modelos
planteados en los siguientes capítulos.
El análisis de escogencia del represéntate tipo se dio con el propósito que éste sea
exponente del proceso tecnológico del total de referencias en la organización. Estos
fueron divididos por los 5 posibles tamaños de envase. Esto se dio debido a que cumplen
las dos condiciones relevantes de Sule (2001) donde cada uno representa en su totalidad
el proceso tecnológico de todas las referencias que encierran el grupo productivo y
además demandan la totalidad del gasto en tiempo de trabajo.
17
En la práctica, la organización cuenta con 5 diferentes tamaños: 250g, 500g, 1000g,
1500g y 3000g, estos agrupan todas las posibles referencias de la organización puesto
que la única diferencia radica en el diseño de la etiqueta la cual está fuera del proceso
productivo ya que todas se externalizan a una empresa especializada en ello.
El Anexo 10.1.6. Representantes Tipo muestra la tabla con los 5 representantes tipo
escogidos para el desarrollo del trabajo de grado. Donde se hace la salvedad que debido
a que la venta real se hace por medio de una gran superficie, los ingresos de la
organización están determinados por el precio de venta a éste eslabón de la cadena y no
al consumidor final que adquiere el producto en la gran superficie.
3.6 Estudio de Tiempos Estándar de Producción
Un paso esencial dentro de los elementos para el desarrollo de la planeación de la
producción es el cálculo de los estándares de tiempos de producción para poder así
identificar ciertos aspectos importantes como los cuellos de botella o el cálculo de las
capacidades de proceso. Estos tiempos se pueden determinar con el uso de
estimaciones, registros históricos, conjeturas, consensos entre operarios o como en este
caso por medio de procedimientos de medición de trabajo con el estudio de tiempos en el
campo de Ingeniería de Métodos.
El estudio de tiempos se usa como una técnica que permite la medición del trabajo a partir
del registro de estándares de tiempos y ritmos de trabajo permitido para realizar una tarea
dada, con sus respectivos suplementos u holguras por fatiga y por retrasos personales e
inevitables, Niebel (2009). Este estudio de tiempos se efectúa en condiciones
determinadas y es de vital importancia para incrementar la eficiencia del personar
operativo y con ello reducir al mínimo la improductividad.
3.6.1 Etapas del Estudio de Tiempos
El estudio de tiempos requiere el seguimiento sistemático de las siguientes etapas las
cuales deberán seguirse en su totalidad con el objeto de identificar los estándares de
tiempos que puedan ser seguidos por la empresa y eviten así inconformidades con el
personal y posibles fallas.
1. Seleccionar el trabajador tipo para el estudio de tiempos
2. Registrar toda la información significativa
3. Desglosamiento de la operación por elementos
4. Registro de los tiempos transcurridos por elemento
5. Valoración del desempeño del operario
6. Determinación del tiempo estándar
A continuación se procede a explicar en detalle cada uno de las etapas del estudio y su
respectiva puesta en marcha.
18
3.6.2 Seleccionar el Trabajador Tipo Para el Estudio de Tiempos
La determinación del trabajador tipo para realizar el estudio de tiempos debe realizarse
con ayuda del supervisor de área o el jefe de planta dado que ellos tienen el contacto más
directo con los empleados y tienen un juicio más concreto para determinar la persona que
tenga un desempeño promedio, no muy calificado ni muy inexperto, lo que proporcionará
un estudio de tiempos mucho más satisfactorio. Este trabajador con ritmo promedio debe
desempeñar sus actividades de forma consistente y sistemática. Dado que en este caso
particular se puede decir que prácticamente cada actividad tiene asignado un operario
diferente y que por medio de charlas con el Ingeniero de producción ningún operario está
en período de prueba, sumado al hecho que se trata de una empresa pequeña, se
procedió entonces a realizar el muestreo de los operarios que intervenían en el proceso
en cada operación identificada en el momento del estudio.
A continuación de haber identificado los representantes tipo del estudio de tiempos, se
explicó brevemente a cada uno, en el momento que el estudio lo demandara, el objeto del
trabajo, se le dio espacio a alguna pregunta que este tuviese y se solicitó que trabajasen a
un ritmo normal con sus pausas acostumbradas con el objetivo de no distorsionar los
resultados del estudio. En seguida de esto se procedió a establecer la ubicación más
adecuada para observar todas las acciones del operario sin llegar a entorpecer sus
movimientos ni distraer su atención. Normalmente esto se realiza por medio de la
caminata suave y continua a unos dos metros de distancia para crear un ambiente de
cotidianidad y garantizar la confiabilidad de los tiempos. Lo más importante a la hora de
determinar la posición era siempre estar de pie, dado que puede llegar a generar
inconformidades entre el operario y el analista puesto que se da la idea que el analista es
un cómodo espectador mientras que el operario le toca todo el trabajo duro.
3.6.3 Registrar toda la información significativa.
En esta etapa el analista debe obtener toda la información posible acerca de la tarea que
está desempeñando el operario y las condiciones que pueden influir en la ejecución
adecuada. Esta información puede ser: máquinas, posición (de pie, sentado, etc),
herramientas manuales, soportes, condiciones de trabajo, materiales, nombre número del
operario, departamento, fecha de estudio, clima, ruido, estrés, etc. Todo esto con el objeto
de ser incluidos como holguras al tiempo normal del operario para así evitar establecer un
tiempo que esté por encima o por debajo del normal.
Para este trabajo se procedió a dejar un espacio en blanco en las Formas para la
observación de estudio de tiempos con el fin de incluir todos estos aspectos relevantes.
La forma tipo se puede consultar en el Anexo 10.2. Formas de Estudio de Tiempos al final
del documento. Mientas que todas los estudios de tiempo diligenciados se pueden
encontrar en el CD anexo a este documento en formato Excel.
3.6.4 Desglosamiento de la operación por elementos
Para facilidad del registro de tiempos por parte del analista es necesario subdividir las
operaciones por elementos o grupos de movimientos. Estos elementos individuales se
19
observan durante varios ciclos, por lo que deben ser elementos que se repitan
constantemente. Entre más subdividido este un proceso por elementos más exactas
serán las lecturas; sin embargo, estos elementos deben ser fácilmente medibles y por
tanto no pueden ser elementos que tomen muy poco tiempo, dado que dificultaría al
analista el registro adecuado de estos elementos en la forma. Por tanto, se recomienda
que estos elementos sean mayores a 0.02 minutos (1.2 segundos), de llegar a ser el caso
que existan elementos esenciales por debajo de estos tiempos mínimos se recomienda
que el procedimiento de toma de observaciones sea a través de la grabación de un video
y no con cronometro. Como se verá más adelante fue necesario acatar esta
recomendación debido a que algunos elementos esenciales para las referencias de
tamaño más pequeño tenían tiempos por debajo de lo recomendado. Algunas otras
recomendaciones que presenta Niebel (2009) a la hora de realizar el desglosamiento son:
1. Separar los elementos manuales de los de máquina debido a que no se le pueden
imponer desempeños u holguras iguales tanto a máquinas como a personas.
2. Separar los elementos constantes de los variables.
3. Cuando un elemento se repite, no se incluye una segunda descripción, solo se da
el mismo número de identificación que se usó cuando el elemento ocurrió por
primera vez.
Considerando estas recomendaciones presentadas con anterioridad y con ayuda del
diagrama de operaciones para la elaboración del Jabón Lavaloza, el cual puede ser
consultado en el Anexo 10.1.7. Diagrama de Operaciones, se procedió a identificar los
elementos tipo de cada operación. Cabe anotar que al diagrama de operaciones se le
deben adicionar los transportes, demoras y otros.
Al dirigirse al Anexo 10.1.8. División de Operaciones por Elemento se observa cómo
existen 12 actividades relacionadas con el proceso de producción de Lavalozas, éstas a
su vez se dividen en elementos principales que la componen. El proceso de las cinco
referencias (250g, 500g, 1000g, 1500g y 3000g) es en si el mismo, sin embargo los
tiempos estándar de producción cambian considerablemente debido a la diferencia en los
tamaños como se verá a continuación. Como se mencionó anteriormente para el caso de
la referencia de 3000g el orden del producción cambia un poco debido a que en la
práctica este producto no se puede fajillar antes de envasar puesto que por la altura del
envase, éste perdería su forma si no contiene nada por dentro que evite esta deformación
por el calor del proceso de termosellado.
3.6.5 Registro de los tiempos transcurridos por elemento
3.6.5.1 Cálculo del número de observaciones
Antes de comenzar el registro de tiempos por elemento es necesario la determinación del
número de ciclos o el número de observaciones a tomar para que la muestra sea
confiable. Para ello es necesario realizar un estudio piloto con un número de
20
observaciones no muy grande que permita identificar si es o no necesario realizar más
registros para obtener una muestra confiable.
El método que se utilizó para determinar el número de observaciones fue el método
estadístico donde a partir de un número de observaciones preliminares ( realizados en
la prueba piloto se obtiene el número de observaciones requeridas . Este método se
basa en que la mayoría de los estudios de tiempo sólo involucran muestras pequeñas
(n<30) por lo que debería utilizarse una distribución de probabilidad t y no una normal. Por
lo que según la ecuación de intervalo de confianza
√
donde el término puede considerarse un término de error expresado como una fracción
del promedio de las observaciones de la prueba piloto , entonces se tiene que
√
donde k equivale a una fracción aceptable del promedio piloto . A continuación se
procede a despejar el número de observaciones n y se obtiene
(
)
donde
t: Estadístico t obtenido a partir del nivel de confianza. Para un se tiene un
t=2.064.
s: Desviación estándar de las observaciones de la prueba piloto
√∑
: Promedio de las observaciones de la prueba piloto
k: Fracción aceptable del promedio . Normalmente igual a 0.05
n: Número de observaciones requeridas
Si el número de observaciones resultantes n es inferior o igual al número de
observaciones de la prueba piloto se tiene que el tamaño de la muestra determinado por
es lo suficientemente grande y por tanto tiene la confianza requerida. Sin embargo, si
n> entonces es necesario realizar dicho número de observaciones más para garantizar
la confianza requerida.
Para este caso se tomó un número preliminar de observaciones en la prueba piloto igual
a 5 para cada elemento de la actividad descrita y se tomo un de 0.05. Se encontró que
un 90% de las observaciones resultaron consistentes, es decir menor o igual a n, por
21
tanto para efectos de practicidad se tomaron 10 o más observaciones por elemento para
garantizar así la confiabilidad de los tiempos estándar.
3.6.5.2 Estructura del registro de tiempos para el estudio
El desarrollo de los registros de tiempos se realizó en la Forma para Observaciones del
Estudio de Tiempos basada en Niebel (2009) y modificada para las necesidades del
trabajo. Se presenta una forma para cada operación con su respectiva división en
subelementos. Una vez más, esta forma se puede encontrar como Anexo 10.2 al final de
este documento.
3.6.6 Valoración del Desempeño del Operario
Debido a que el estudio requiere la estandarización del tiempo que le toma a un operario
promedio realizar una tarea. Es necesario determinar un ajuste calificador el operario que
desarrolla las actividades. Por ello, previamente a la culminación del estudio de tiempos
por operación, el analista debe calificar justa e imparcialmente el desempeño del operario
que intervino en el proceso.
Según Niebel (2009) el desempeño estándar de una operación se define como el
rendimiento que obtienen naturalmente y sin esforzarse los trabajadores calificados
promedio, siempre que conozcan y ejecuten el método especificado para cada actividad.
A partir de este desempeño se podrán ajustar los tiempos hacia lo que el analista pudo
observar. Por ejemplo, si se presenta el caso que un operario realiza el elemento a un
ritmo que el analista piensa que es normal y el operario decide cambiar su ritmo de
trabajo en medio del estudio sea disminuyéndolo o aumentándolo es obligación del
analista ajustar y corregir dicho cambio para no perjudicar a los demás trabajadores al
estimar un tiempo estándar por encima o por debajo del normal.
Se procedió entonces a calificar el desempeño de los operarios por medio de tres
puntuaciones diferentes que por efectos de practicidad se tomaron los valores de 90, 100
y 110. Siendo 100 el desempeño estándar, 90 el desempeño bajo y 110 el desempeño
superior. Estas calificaciones fueron asignadas a cada operación dividida por elementos
tomando en cuenta los factores de habilidad, esfuerzo, condiciones de trabajo y
consistencia.
Desempeño Puntuación
Bajo 90
Estándar 100
Superior 110
De llegarse a dar el caso que todas las valoraciones del ritmo de trabajo fuesen siempre
determinadas a un desempeño estándar, se tendría que el Tiempo Observado (TO) por el
analista es exactamente igual al Tiempo Normal (TN) que resulta del ajuste por el
desempeño, esto debido a que la razón entre la calificación del desempeño y el
desempeño estándar sería igual a 1. El Tiempo Normal sería entonces el tiempo que
invierte un operario en ejecutar cada elemento a juicio del analista y tiende a ser
22
constante a lo largo de las observaciones dado que en la mayoría de casos se presenta
una tendencia a que el trabajador ejecute el elemento a la misma calificación de
desempeño durante el estudio.
Según Niebel (2009) es necesario que el analista decida si fija una calificación del ritmo
de trabajo para todo el estudio o si califica el elemento individualmente. De llegarse a
presentar el caso que los elementos individuales sean largos e incluyen movimientos
manuales diversificados, resulta mucho más práctico evaluar el desempeño de cada
elemento cuando este ocurre. Si por el contrario, los ciclos de trabajo pequeños se
recomienda evaluar el desempeño al estudio completo o una calificación promedio para
cada elemento.
La identificación de este desempeño se presenta en cada una de las Formas para la
Observación de Estudio de Tiempos de cada una de las observaciones y como se
mencionó anteriormente, estas dependen de la frecuencia del ciclo de trabajo de cada
operación.
3.6.7 Determinación del tiempo estándar
Una vez registrados los tiempos observados por el analista se procedió a realizar el
cálculo de los tiempos estándar de producción por elemento. Para ello se deben tener en
cuenta posibles valores atípicos que se presentan a la hora de realizar el estudio. Niebel
(2009) sugiere tener en cuenta los siguientes aspectos para el análisis de la consistencia
de los elementos observados:
Determinar si las variaciones se deben a la naturaleza del elemento en todas las
lecturas.
Verificar si existen variaciones debida a falta de habilidad o desconocimiento de la
tarea por parte del trabajador.
Determinar si existen variaciones que no se deben a la naturaleza del elemento,
sino que estén atribuidas al mal registro de los datos o a fallas de los equipos de
cronometro.
Si se determina que las variaciones no tienen causa aparente, es necesario
efectuar un análisis cuidadoso antes de ser eliminada la observación, si se
detectan causas no asignables se recomienda volver a la fase de observación.
Se recomienda que el formato en donde se registran los tiempos tenga una
columna de observación con el fin de identificar las posibles afectaciones a las
observaciones atípicas que se presentaron.
3.6.8 Cálculo del tiempo estándar por elemento
A manera ilustrativa se procede a realizar el cálculo del tiempo estándar promedio para la
agregación de las operaciones Envasar-Pesar-Tapar en el caso del producto tipo 250g.
Cabe anotar el hecho que dado los tiempos observados tan pequeños de producción por
operación, fue necesario en muchos casos combinar los elementos para poder así
23
obtener una medida más adecuada de los tiempos, de lo contrario se correría el riesgo de
obtener valores muy disparejos y poco realistas como lo arguye Niebel (2009).
1. Suma de las lecturas de los tiempos observados que han sido consideradas como
consistentes (TO: Tiempo observado)
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25
SUMA
TO
TO
Envasar 0.9 0.9 1 1 0.8 0.9 0.7 0.9 0.9 0.9 1.1 1 0.9 0.9 0.9 0.8 0.9 0.8 0.8 0.8 0.9 0.9 0.9 0.8 0.8 22.1
TO
Pesar 1.4 0.9 1.1 1.2 1.5 3 0.9 0.8 0.8 0.9 1.1 0.9 0.9 1.1 1.4 0.7 0.8 0.9 0.8 0.8 0.9 1.3 1.1 2.4 1.4 29.0
TO
Tapar 0.5 0.8 0.7 0.9 0.7 0.8 0.8 0.9 0.7 0.6 0.7 0.9 0.7 0.6 0.9 0.6 0.7 0.7 0.8 0.6 0.7 0.7 0.8 0.8 0.8 18.4
Nota: Todos los tiempos se encuentran en segundos
2. Como en este caso específico se está contando con un ritmo de trabajo para toda
la operación debido a los tiempos tan pequeños de producción, se procede a
calcular el tiempo normal de la siguiente forma.
Donde C corresponde a la calificación que se le da al desempeño (90, 100 o 110).
Para este caso tenemos que
Como se observa, dado que la operación pesar contó con un ritmo de trabajo más
alto que el estándar, su tiempo normal estará por encima del tiempo observado
puesto que de ser el caso de un trabajo normal el operario habría demorado en
promedio más de 29 segundos. Por ello se debe ajustar su desempeño.
3. A continuación se procedió a obtener el Tiempo Normal Promedio de todas las
observaciones realizadas, para ello se dividió el TN por operación sobre el número
de observaciones registradas n, así:
Se tiene entonces para el ejemplo que:
24
4. Asignar suplementos u holguras: Bajo la hipótesis que ningún operario puede
trabajar todos los días a un mismo ritmo, con un mismo tiempo estándar debido a
que las condiciones de trabajo están cambiando constantemente. Se sabe que
existen tres posibles interrupciones al trabajo. Estas son las interrupciones
personales (e.g. idas al baño), interrupciones que afectan incluso a los individuos
más fuertes en trabajos más ligeros y las interrupciones inevitables (e.g.
interrupción del supervisor). Sea cual sea el tipo de interrupción es necesario
determinar una holgura para el ajuste de tiempos.
Esta tabla de holguras relacionada con los posibles factores que afectan la
determinación de tiempos estándar de trabajo se puede consultar en el Anexo
10.3. Suplementos Personales al final de este documento. Además cada una de
las operaciones en las Formas para la Observación de Estudio de Tiempos cuenta
con su debido cálculo del porcentaje de holguras.
En este paso, al tiempo normal promedio se le suman las tolerancias por
suplementos concedidos, obteniendo así el Tiempo Estándar Elemental TEE bajo
la siguiente formula
Una vez más, para el ejemplo tenemos que:
Como se puede observar el porcentaje de holgura corresponde al 11%, esto
debido a que se suman 5% de necesidades personales, 4% de fatiga básica y 2%
de fatiga variable por trabajo de pie. (Véase Anexo 10.3. Suplementos Personales)
5. El último paso antes de hallar el tiempo estándar por operación, es el la
multiplicación del TEE por un factor de frecuencia f. Esta frecuencia responde a la
pregunta cu ntas eces se e ecuta el elemento para producir una unidad Si
e isten elementos repetiti os se dan por lo menos una ez en cada ciclo de la
25
operación de tal manera que se pondr si se dan una ez por operación o
si se dan 2 veces por operación. Tenemos que:
como en este caso particular se tiene que toda la operación es el mismo elemento
y que la frecuencia para producir una pieza en todos los casos es 1 tenemos que
los TE son iguales a los TEE.
6. Por último se procede a sumar todos los tiempos estándar por elemento para
obtener un solo tiempo estándar por operación.
∑
Para este caso particular se cuenta con que la sumatoria de los tiempos por
elementos es la misma que por operación. Sin embargo, para ejemplificar este
paso, se sumaran los tiempos estándar de las 3 operaciones para obtener un
tiempo estándar de Envasar-Pesar-Tapar.
Como se pudo observar, el tiempo estándar de estas 3 operaciones inclusive
conjuntamente es muy bajo, esto debido a el hecho que se trata de la presentación más
pequeña de 250g. En este punto y como se mencionó anteriormente, se puede observar
que las tres presentaciones aunque tienen el mismo proceso de producción, cuentan con
tiempos estándar completamente diferentes dado que el tiempo estándar del mismo
proceso Envasar-Pesar-Tapar para la referencia de 3000g es de 19.7 segundos lo que
representa que este tipo de producto se realiza en un tiempo 6 veces mayor que el de la
presentación de 250g.
Así las cosas, este proceso de seis pasos aquí descrito se realizó para cada una de las 5
estaciones de trabajo y para cada uno de los 5 tipos de productos. Al final se obtuvo una
matriz de 5 Estaciones por 5 tipos de productos (250g, 500g, 1000g, 1500g, 3000g). La
cual sumando cada una de las filas se obtiene el tiempo estándar total para producir una
sola unidad de cada tipo de producto.
26
Tabla de Tiempos Estándar de producción ( 1 Unidad )
3000g 1500g 1000g 500g 250g
Fabricar Envase (Tapa y Cuerpo) 0.00 0.00 10.56 10.45 0.00
Fajillado 17.17 13.17 12.07 10.14 7.90
Mezclado 56.43 28.21 18.81 9.40 4.70
Envasado 24.53 11.72 8.07 5.06 3.62
Empacado 7.17 8.96 8.91 6.42 4.31
TOTAL Continuo
TOTAL producción4
105.30
105.30
62.07
48.89
58.42
35.79
41.48
21.02
20.53
12.63
1. Tiempo en segundos
Tabla 3 Tiempos estándar de producción unitarios
Fuente: Cálculos del Autor.
La tabla anterior muestra que el tiempo estándar de producción depende directamente del
tamaño del producto final a producir, por lo que la producción dentro de la capacidad del
proceso será diferente en cada uno, como se verá más adelante. Bajo el estudio de
tiempos previamente realizado, se observó que en promedio el tiempo estándar para
producir una unidad del lavaloza de tamaño 250g es cinco veces menor que la de producir
una unidad de 3000g, dos veces menor que la de producir una unidad de 500g y tres
veces menor que la de producir una unidad de 1000g y 1500g.
Debido a que el comportamiento de las operaciones de todas las referencias, excepto la
de 3000g, no es continuo sino que es un proceso que se puede desarrollar en dos etapas
paralelas como lo muestra el Anexo 10.1.7, fue necesario determinar el tiempo estándar
de producción consecuente con esta estructura de proceso, de lo contrario se entraría en
el sobre dimensionamiento de la cantidad de horas que tarda el proceso en la práctica,
este Tiempo de producción se presenta en la tabla de tiempos estándar de producción
(Tabla 3. Tiempos estándar de producción unitarios) en su última fila.
Adicionalmente, se sabe que cada lote de producción independiente del tamaño, está
determinado por la cantidad que se produce en la estación de mezcla la cual es siempre
de 300kg. Las unidades teóricas de producción por mezcla de 300kg son
Tipo de producto Unidades Teóricas
250g 1200 unidades
500g 600 unidades
1000g 300 unidades
1500g 200 unidades
3000g 100 unidades
Tabla 4 Unidades teóricas de referencias por lote de 300kg
Fuente: Realizado por el Autor.
4 Véase el Anexo 10.1.7 Diagrama de operaciones.
27
Esto determinaría que aunque el proceso de producción por unidad presenta que es
mucho más rápido la producción de una unidad de 250g que de 3000g, sucede lo
contrario cuando se habla por lotes. Debido a que la producción de un lote de 300kg
conlleva a la elaboración de 1100 unidades más de 250g que de 3000g, se generará que
la producción de un lote de 250g sea más lenta que la de 3000g, y que cualquier otra. En
principio esto sucede puesto que además de la mezcla, es necesario considerar los
tiempos de fajillado, envasado y empacado de cada una de esas 1100 unidades más por
lote, lo que demora más la producción por lote entre más pequeña sea la presentación.
Se tendría entonces que los tiempos estándar de producción de un lote de 300kg para
cada una de las referencias, considerando la estructura misma del proceso y las
necesidades personales es
Referencia 250g 500g 1000g 1500g 3000g
Horas 4h 13m 3h 30m 2h 59 2h 43m 2h 55m
Tabla 5 Tiempo necesario para la fabricación de 1 lote=300kg
Fuente: Cálculos del Autor.
Esto último, acorde a los estudios realizados en la planta, experiencia del supervisor y del
autor, está mucho más acorde con los tiempos de producción reales de la planta para un
lote. Si se hubiese tomado de manera continua, tiempos como el de la referencia de 250g
hubiesen estado cercanos a las 6 horas, cuando el proceso en realidad está representado
por un tiempo mucho más cercano a las 3 o 4 horas debido a su estructura paralela, esto
puede acarrear problemas de subestimación del tiempo productivo y complicaría el
requerimiento de satisfacción de la demanda, por lo que se tomarán como tiempos
estándar definitivos aquellos tiempos cuyo comportamiento reflejen la estructura real del
proceso, los cuales se encuentran en la Tabla 3. Tiempos estándar de producción
unitarios como Tiempo de producción.
3.7 Capacidad Disponible
La capacidad disponible está determinada por algunos autores como Kalenatic et al
(2007) como el potencial de un trabajador, una máquina, un centro de trabajo, un proceso,
una planta o una organización para fabricar productos por una unidad de tiempo. Esta
capacidad de tiempo delimitada por hasta cuánto está dispuesto a dar el proceso antes de
no poder llegar a producir más. Es decir, es el límite de unidades que se pueden producir
por unidad de tiempo. La capacidad del proceso suele expresarse para la disponibilidad
de un recurso requerido en la producción de una mezcla de productos en un periodo de
tiempo determinado. En la mayoría de los casos son la capacidad del recurso máquina:
Horas-Máquina por unidad de tiempo y la capacidad del recurso de mano de obra: Horas-
Hombre por unidad de tiempo.
Esta capacidad de producción de los recursos Hombre y/o Máquina que determina el
potencial del proceso se calcula en función de la cantidad de recursos en la estación de
trabajo y se multiplica por el número de días hábiles en el mes del horizonte de tiempo por
el número de turnos trabajados y por las horas que se trabaja en cada turno, al número
28
resultante se le restan las pérdidas originadas por el alistamiento, mantenimiento,
ausentismos, descansos y cualquier otro factor externo que de una u otra forma
disminuyan la capacidad del proceso.
A continuación se procede a realizar el cálculo de la capacidad disponible para cada uno
de los recursos en la organización.
3.7.1 Cálculo capacidad disponible recurso Hombre
Según lo mencionado anteriormente, tenemos que la capacidad del proceso para el
recurso Hombre se calcula como
donde
: Capacidad Total en la estación j en el periodo de tiempo t
Días hábiles en el periodo de tiempo t
: Número de turnos en la estación j
: Número de horas por turno en la estación j
A continuación es necesario restar a la Ecuación (A1) el número de horas dedicadas a
descanso oficial otorgado por la organización, ésta se calcula como
donde
: Número de horas dedicadas a descanso en el tiempo t
: Número horas de descansos por turno en el tiempo t
El segundo componente a sustraer de la capacidad total es el correspondiente a el tiempo
ocioso de los recursos. Este tiempo se calculó a partir de un muestreo del trabajo el cual
se puede consultar como Anexo 10.4 Muestreo del Trabajo al final de este documento y
en formato Excel en el CD anexo. Tenemos que la fórmula para su cálculo está dada por
donde
: Tiempo ocioso en la estación j en el periodo de tiempo t
Porcentaje del tiempo ocioso
La Ecuación (A3) nos dice que el tiempo ocioso de cada estación está determinado como
un porcentaje de todo el tiempo disponible para el trabajo sin contar los descansos.
29
La última ecuación a sustraer de Ec. (A1) hace referencia al tiempo dedicado por el
recurso Hombre al mantenimiento del recuso Máquina, este tiempo representa una
intersección entre ambos recursos, por lo que será utilizado por ambos para el desarrollo
de la planeación. La fórmula que determina este tiempo de alistamiento está dada por
donde
: Tiempo dedicado a mantenimiento en la estación j en el periodo de tiempo t
Porcentaje del tiempo dedicado a mantenimiento en la estación j
Tenemos entonces que al juntar las ecuaciones (A1), (A2), (A3) y (A4) se obtiene la
Capacidad Disponible del recurso Hombre, la cual determina cuantas
horas se pueden dedicar a producción en cada uno de los meses de horizonte de
planeación considerando el número total de trabajadores por estación
( )]
donde
: Número de trabajadores en la estación j
Realizando un poco de algebra se obtiene que5
donde
. Representa el porcentaje de tiempo productivo.
( ) Representa el número de horas totales dedicadas a
la producción por el recurso Hombre.
Para el desarrollo de este ejercicio se sabe que:
6
Debido al hecho que el modelo de programación presentado más adelante considera el
número de trabajadores como una variable, es necesario tener en cuenta esta capacidad
5 Para ver el desarrollo del algebra véase el Anexo 10.5. Procedimientos Matemáticos. 6 Se dan 15 minutos de descanso dos veces por turno y 60 minutos de almuerzo o descanso
dependiendo del turno.
30
como dinámica puesto que está variando dependiendo del valor intertemporal que tome
. Esto se considerará en el Capítulo 5 dentro de la programación lineal planteada. Sin
embargo, esta capacidad hombre está limitada por la capacidad del recurso máquina, la
cual es fija bajo el supuesto de que no se ampliará la capacidad máquina en el horizonte
de tiempo. Su cálculo se presenta a continuación.
3.7.2 Cálculo capacidad disponible recurso Máquina
El cálculo de la capacidad que dispone el recuso máquina está determinado de manera
muy similar a la forma como se realizó el desarrollo de la capacidad del recurso Hombre.
En general se tienen que
( )]
donde
: Capacidad disponible de máquina en la estación j en el periodo de
tiempo t
Número de máquinas en la estación j
Capacidad total disponible de máquina en la estación j en el periodo de
tiempo t
Tiempo ocioso de la máquina en la estación j
Tiempo dedicado a mantenimiento en la estación j
Se observa como la ecuación del recurso máquina no considera el número de horas
dedicas a descanso debido a que este tiempo es considerado dentro del tiempo ocioso de
la máquina. Organizando los términos y realizando algo de algebra como se realizó en Ec.
(B1) se tiene que
donde
. Representa el porcentaje de tiempo productivo de máquina.
Representa el número de horas totales dedicadas a la
producción por el recurso máquina.
Se tendrá entonces que la capacidad disponible del recurso máquina considerando los
valores de la Tabla 2. Disposición Recurso Máquina. para un tiempo de trabajo normal de
8 horas diarias por estación y por periodo será de
31
Tabla Capacidad Disponible Máquina Unidades: Horas
Estación de trabajo Marzo Abril Mayo Junio Julio Agosto
Fab. Envase 159.00 152.64 165.36 139.92 171.72 152.64
Fajillar 348.00 334.08 361.92 306.24 375.84 334.08
Mezclar 764.00 733.44 794.56 672.32 825.12 733.44
Envasar 280.00 268.80 291.20 246.40 302.40 268.80
Empacar 171.00 164.16 177.84 150.48 184.68 164.16
Tabla 6 Capacidad máquina por estación de trabajo
Fuente: Cálculos del Autor.
donde ∑ para cada valor de , será igual a
Capacidad máquina Tiempo Normal
Marzo 1722.00 Abril 1653.12 Mayo 1790.88 Junio 1515.36 Julio 1859.76
Agosto 1653.12
Tabla 7 Capacidad máquina en tiempo normal
Fuente: Cálculos del Autor.
el cual corresponde a la capacidad de la planta en cada uno de los meses considerados.
Ahora bien, la siguiente tabla considera la capacidad de la planta en tiempo extra, para un
turno “extra” de 4 horas adicionales a las ordinarias.
Capacidad máquina Tiempo Extra
Marzo 861.00 Abril 826.56 Mayo 895.44 Junio 757.68 Julio 929.88
Agosto 826.56
Tabla 8 Capacidad máquina en tiempo extra
Fuente: Cálculos del Autor.
3.8 Costo Unitario de Producción
El costo unitario se encuentra catalogado como el gasto económico que representa la
fabricación de una unidad de un producto determinado. El análisis y la determinación del
costo unitario de producción permiten llegar a conocer medidas de desempeño
organizacional que posibilitan una mejor administración de las operaciones. Este costo
mide el esfuerzo que se debe llevar a cabo para realizar adecuadamente una unidad de
un producto.
Así las cosas, la determinación del costo unitario de producción para cada una de las
referencias seleccionadas es fundamental para conocer cuan eficaz resultará la
32
construcción del plan agregado de producción en la organización. Dentro de la
desagregación del costo, Chase et al (2009) clasifica estos en (i) costos variables que
están en función directa del proceso de producción y que intervienen en la transformación
de la materia prima al producto final, (ii) costos fijos o todo egreso que permanece
invariante ante cambios en el proceso productivo y (iii) costos de oportunidad que son
aquellos costos de la inversión de los recursos con los que se dispone en oportunidades
económicas que generarán inevitablemente costos de la opción no realizada por ejemplo
los costos en los que se incurre por dejar de vender un producto.
Dentro de los costos variables y fijos se encuentran involucrados varios componentes
principales para su determinación los cuales serán explicados a continuación.
3.8.1 Costos de mano de obra directa
Los costos directos de mano de obra involucran aquellos costos asociados a la fuerza de
trabajo necesaria para su producción. Su representación está determinada por los
sueldos, salarios, bonos o comisiones de aquellos empleados cuyo ejercicio profesional
se involucre directamente con la fabricación del producto.
Cabe anotar que debido a la estructura de la programación lineal que se presentará más
adelante en el Capítulo 5. Planeación de la producción. resulta indispensable la
separación de este costo del costo unitario de producción para evitar problemas de
duplicación en la construcción de la estructura de los costos. Sin embargo, se presenta en
este apartado debido a que es parte esencial de la construcción de un costo unitario
variable.
A partir de la construcción de todos los costos posibles que acarrea el mantenimiento de
un empleado regular se construyó el costo de mantener un trabajador de mano de obra
directa. Los costos que debieron ser tenidos en cuenta para el caso particular de la
organización fueron costos de nómina como sueldos, salarios y prestaciones sociales,
costos de exámenes médicos que se realizan una vez cada año y por último y costos de
una dotación de un litro de leche diaria que se les debe dar a cada uno de los operarios
para evitar problemas de salud derivados del proceso productivo.
La Tabla 9. Costos de mano de obra directa en tiempo normal. presenta la forma como se
obtuvo dicho valor para cada operario. Debido a que todos los operarios ganan lo mismo
sin importar la estación de trabajo donde se encuentre, se tendrá un solo costo para todos
los tipos de operarios o auxiliares.
33
Nombre del costo Valor
Sueldo Mano de Obra Directa $616,000 Aportes A Fondos De Pensiones Y/O Cesantías $73,920 Aportes A Entidades Promotoras De Salud $52,360 Auxilio De Transporte $72,000 Aportes A.R.P (2.436%) $15,006 Parafiscales $55,440 Costo en leche $48,000 Costo en exámenes médicos (Mes) $6,233 Provisión Prima (8.3%*$ 688,000) $ 57,104 Provisión Cesantía (8.3%*$ 688,000) $ 57,104 Provisión Interés Cesantía (1%*$ 688,000) $ 6,880 Provisión Vacaciones (4.1%*$ 688,000) $ 25,681
Suma costos de mano de obra directa $ 1’031,500
Tabla 9 Costo de mano de obra directa en tiempo normal
Fuente: Cálculos del Autor. Datos suministrados por la organización.
Se tendría entonces que el costo de la hora ordinaria7 considerando todos los costos
adicionales al sueldo corresponde a $ 4,297.91 (donde $ 2,566.67 hace referencia al
sueldo y $ 1,731.24 a parafiscales y obligaciones legales del empleador). Además la hora
extra ordinaria8 al ser un 25% adicional a la hora ordinaria correspondería a $ 4,939.57
(donde $ 3,208.33 corresponden a la hora extra ordinaria y $ 1,731.24 a parafiscales y
obligaciones del patrón).
3.8.2 Costos de materia prima e insumos
Los costos de materia prima e insumos son aquellos costos de todos los elementos que
se incluyen en la elaboración del producto y que sufren algún tipo de transformación física
o química y que es incorporado al producto final. Los costos de materia prima varían muy
poco entre referencias puesto que en sí lo único que cambia es el costo de la fabricación
del envase tanto del cuerpo como de la tapa, el cual será mayor entre más grande sea el
tamaño de la referencia. Estos costos se definen a continuación para cada una de las
referencias, acorde a precios del 2014 por información entregada por la organización.
Cabe anotar que la forma de su cálculo se determinó por medio de un promedio simple
del costo de materias primas por gramos de 7 tipos de productos que varían según la
fragancia y el tipo de cliente, este costo promedio dio como resultado 0.84929 pesos por
gramo.
Costo Materia Prima
R250 $212.32
R500 $424.64
R1000 $849.29
R1500 $1,273.93
R3000 $2,547.86
Tabla 10 Costos de materias primas
Fuente: Alianzas y/o Industrias Alta Pureza S.A.
7 Entendiéndose como hora ordinaria una jornada de trabajo entre las 6:00am y las 10:00pm. 8 Ley 50/1990 Art 24.
34
3.8.3 Costos de almacenamiento
Los costos de almacenamientos son aquellos costos que se incrementan en relación
directa con el volumen y el tiempo de almacenamiento de la mercancía. Dentro de estos
costos se encuentran los costos financieros de inventario, costos de mantenimiento,
costos de explotación y costos de depreciación. Para este caso particular se tendrán en
consideración únicamente los costos de mantenimiento los cuales se determinan
directamente por el arriendo, pólizas de seguros, compañías de seguridad, limpieza,
agua, luz, gasolina, teléfono, internet, etc. y los costos de explotación
Para llegar a obtener adecuadamente los costos de almacenamiento fue necesario llevar
todos estos costos a un valor que corresponda al área comprendida dentro de la
organización para uso de bodega de almacenamiento de producto terminado únicamente,
no de materia prima ni otra área productiva o improductiva. Esto se logró haciendo uso del
plano de la organización y usando una escala de conversión para encontrar el área
dedicada al almacenamiento de producto terminado. Este plano se puede encontrar en el
Anexo 10.10. Plano de la organización. al final de este documento, así como su respectiva
tabla de conversiones para cada área dentro de la organización.
Se encontró entonces que el área dedicada a almacenamiento de producto terminado
dentro del total del área de la organización corresponde a la razón la cual
determina un porcentaje del 9.9% aproximadamente dedicado a almacenar el producto
terminado. Este porcentaje será utilizado entonces más adelante para el cálculo del costo
total.
Asimismo, fue necesario la obtención del porcentaje de participación de los costos de
explotación el cual se debe determinar por medio de la razón: horas hombre dedicadas al
almacenamiento en un tiempo determinado sobre el total de horas hombre en el tiempo
determinado. Esta razón se obtuvo a partir de la división promedio de para cada
referencia entre el tiempo que se dedica al almacenamiento dentro del tiempo total para la
producción de un lote de 300kg. Arrojando un porcentaje promedio de 14.59% de tiempo
dedicado a empacar dentro de la producción de un lote.
La desagregación de estos costos se presentan en la Tabla 11. Costos desagregados de
almacenamiento y están dados para un tiempo estándar de producción en un mes de
trabajo, tomando como referencia el mes de enero 2014 y considerando los porcentajes
de participación de cada costo en el total. La tabla muestra el costo total de
almacenamiento para un estándar de dos operarios promedio trabajando en
almacenamiento.
35
Tipo de costo Desagregado General Peso % Costo Real
Costos de Mantenimiento
Arriendo Almacenamiento $ 8,000,000 Teléfono $ 143,950 Celular $ 70,000 Asesoría técnica $550,000 Agua y Alcantarillado $149,110 Aseo Publico $149,620 Energía $5,716,000 Alarma / Seguridad $145,644
Suma 14,924,324 9.9% $1,478,028.26
Costos de Explotación
(Por operario)
Sueldo Mano de Obra Directa $616,000 Aportes A Fondos De Pensiones Y/O Cesantías $73,920 Aportes A Entidades Promotoras De Salud $52,360 Auxilio De Transporte $72,000 Aportes A.R.P (2.436%) $15,006 Parafiscales $55,440 Gasto en leche $48,000 Gasto en exámenes médicos $6,233
Suma $938,959 14.6% $137,021.62
TOTAL COSTO DE ALMACENAMIENTO NETO (2 operarios) $1,752,071.49
Tabla 11 Costos desagregados de almacenamiento
Fuente: Cálculos del Autor. Datos suministrados por la organización.
Sin embargo, este costo total así presentado es infructuoso para el desarrollo del plan de
producción que se presentará más adelante; esto debido al hecho que es necesario la
obtención de un costo unitario de almacenamiento para cada una de las referencias
presentadas. Este costo se obtuvo de la siguiente manera: primero se calculó el volumen
aproximado de la bodega de almacenamiento teniendo en cuenta una altura de 2.5
metros de alto puesto que por encima de ese nivel es altamente probable que las cajas
que se encuentran en la base sufran deformaciones y posiblemente perjudiquen la calidad
del producto final. Este valor se presenta en la siguiente tabla
Ancho <m> Largo <m> Alto <m> Volumen <m³>
Bodega 4.57 27.86 2.5 318.367
Tabla 12 Volumen Bodega almacenamiento
Fuente: Cálculos del Autor.
A continuación, se procedió a encontrar el volumen que ocupa cada producto dentro de la
bodega, dependiendo el tipo de referencia. Este volumen se calculó tomando las medidas
del diámetro y la altura de cada recipiente y calculando su el volumen como donde
corresponde el radio de cada uno y a su altura. Con este valor se calculó la capacidad
teórica de cada referencia en el total del volumen de la bodega, y se procedió a obtener el
costo unitario de almacenamiento como la razón entre esta capacidad teórica y el costo
total presentado al final de la Tabla 11. Costos desagregados de almacenamiento. Los
resultados de este procedimiento se documentaron en la siguiente tabla
36
Diámetro <m>
Alto <m>
Volumen <m³>
Capacidad (Unidades)
Costo Unitario de Almacenamiento
Pro
du
cto
R250 0.085 0.055 0.000312098 1020089 $1.72
R500 0.113 0.065 0.000651869 488392 $3.59
R1000 0.137 0.081 0.001194032 266632 $6.57
R1500 0.153 0.085 0.001562758 203721 $8.60
R3000 0.165 0.15 0.00320737 99261 $17.65
Tabla 13 Costos unitarios de almacenamiento por referencia
Fuente: Cálculos del Autor.
3.8.4 Costos fijos
Como se mencionó anteriormente los costos fijos son todos aquellos costos que no están
en función de la cantidad producida es decir que no son sensibles antes cambios en la
actividad económica sino que siempre deben ser pagados con una periodicidad frecuente
(diario, semanal, quincenal, mensual o anual).
Etapa Valor
Arriendo $ 8’000 000 Energía $ 5’7 6 000 Teléfono $ 143,950 Celular $ 70,000
Aseo Publico $ 149,110
Total $ 14’079,060
Tabla 14 Costos fijos
Fuente: Datos suministrados por la organización.
Ahora bien, existen otros costos que deben ser tenidos en cuenta a la hora del desarrollo
de un plan de producción, estos costos aunque no son muy frecuentes y su derivación
suele ser más compleja, son vitales para comprender como será el desempeño del plan
de producción. Entre estos costos se encuentran: costos de contratar y despedir personal
de producción y costos de ruptura nato, los cuales serán descritos y derivados a
continuación.
3.8.5 Costos de ruptura
Un costo de ruptura, también llamado costo de faltantes, se define cuando no hay
existencias suficientes para llegar a satisfacer la demanda en un periodo de terminado.
Este costo tiene varias manifestaciones dependiendo del tipo de inventario. Cuando las
máquinas u operarios se detiene por falta de inventarios este costo es llamado lucro
cesante mientras que cuando el costo se deriva por la falta de inventario final para suplir
la demanda es llamado costo de ruptura nato. Este último será tenido en cuenta más
adelante para la construcción de la función de costos asimétrica con la subproducción.
Debido a que el cálculo del costo de ruptura nato es difícil de obtener y poco frecuente en
su uso, además de sugerir la necesidad de un sistema muy eficiente de gestión de calidad
y de inventarios, aspecto muy pocas veces logrado en pequeñas y medianas empresas
del país, fue necesario conformarse con una derivación estimada y subjetiva de este costo
37
a partir de un estándar teórico. Autores como Arbones (1989) o Laumaille (2000)
consideran que estos costos se encuentran entre un 1% y un 4% de los ingresos por
venta, lo que querría decir que entre mayor cantidad de unidades no vendida mayor será
el costo de ruptura. Sin embargo, esta función de costos parecería comportarse de una
forma más exponencial que lineal, esto debido al hecho que entre mayor sea el número
de unidades que no satisficieron la demanda, más y peores complicaciones tendrá el ente
productor con el cliente. Además, este costo tendría cierto de grado de relación con la
persistencia a la reiterada subproducción y la tolerancia que se tenga por parte del cliente,
puesto que no es lo mismo dejar de satisfacer la demanda de medicamentos para un
hospital que para jabones lavaloza en una gran superficie, siendo la primera mucho más
costosa. Todo esto hace que su derivación sea bastante compleja.
Por ello se decidió, por medio de la gerencia administrativa y por las cualidades que se
tienen del producto en discusión, a considerar un costo de ruptura del 2% del precio
unitario de venta el cual determina el ingreso que se generará para cada referencia. Los
resultados se presentan a continuación.
Etapa Precio Costo de ruptura
R250 $ 790 $ 15.8
R500 $ 1,700 $ 34
R1000 $ 2,900 $ 58
R1500 $ 4,600 $ 92
R3000 $ 8,976 $ 179.52
Tabla 19 Costos de ruptura
Fuente: Cálculos del Autor.
3.8.6 Costos de Contratar y Despedir
Dentro de las organizaciones con procesos productivos de transformación de materias
primas en productos terminados es muy frecuente encontrar temporadas de crecimiento o
recesión de la producción. Aquellos períodos donde es necesario incrementar la
capacidad productiva resulta indispensable contratar más personal para poder cumplir con
la demanda, caso contrario con periodos de recesión donde resulta costoso mantener un
recurso humano improductivo. Es por ello que el modelo de planeación de producción
planteado más adelante sugiere considerar costos de contratar y despedir personal.
Más allá de los salarios que gana un trabajador, existen otros costos asociados al proceso
de contratación en cualquier organización. Estos costos están ligados muy
frecuentemente a procesos recursos humanos como entrenamiento, preparación y
aprendizaje del operario para cumplir su labor. Sin embargo, resulta necesario además
considerar costos de procesos de selección de candidatos como el Assestment Centers, o
incluso costos de papelería.
Para este caso particular se cuenta con costos de 4 exámenes médicos de ingreso
únicamente, debido a que los costos de papelería son insignificantes y no existen costos
38
adicionales derivados del proceso de selección. Por consiguiente el costo de contratación
será igual a
Tipo de costo Valor
Examen médico Ocupacional de Ingreso $ 25,300 Audiometría $ 15,700 Optometría $ 15,700
Espirometría $ 18,100
Total $ 74,800
Tabla 20 Costo total de contratar un operario
Fuente: Datos suministrados por la organización.
Asimismo, los costos de despedir tienen asociados costos por exámenes médicos que
aunque son menores que los de contratar, son significativos. Adicionalmente, los costos
de despedir están ligados a razones legales por medio de la liquidación de cada uno de
los empleados para un contrato a término fijo de un mes. Estos costos asociados al
proceso de despido se presentan a continuación.
Tipo de costo Valor
Examen Médico Ocupacional de Ingreso $ 25,300 Audiometría $ 15,700 Espirometría $ 18,100
Total $ 59,100
Tabla 15 Costo total de despedir un operario
Fuente: Datos suministrados por la organización.
Cabe mencionar que estos tipos de costos de despedir y contratar tienen un supuesto
fundamental detrás, y es el hecho que se está pensando que en el mercado laboral existe
un gran número de oferentes y que la búsqueda de un candidato es lo bastante rápida
como para suplir la demanda requerida en el mes sin entrar en conflictos derivados del
proceso de búsqueda.
39
4 PRONÓSTICO DE LA DEMANDA EN EL HORIZONTE DE PLANEACIÓN
El presente capítulo encierra uno de los aspectos más esenciales dentro de una buena
planeación de la producción, esto es, la proyección de la demanda requerida en el
horizonte de planeación. Este capítulo estará compuesto por siete secciones principales.
La primera una explicación general de la teoría de decisión y pronósticos con series de
tiempo; la segunda, una descripción de los datos que se van a emplear para este trabajo;
la tercera, una introducción de la funcionalidad, estructura y propósito del complemento
ASTEX en E cel “add-in” desarrollado como herramienta de an lisis a las series de
tiempo para la organización; la cuarta, la explicación y realización del pronóstico de la
demanda por medio del modelo ARIMA propuesto por Box-Jenkins 1970, en esta sección
se introducirá el código programado en lenguaje MATLAB para la búsqueda, selección y
evaluación del mejor modelo ARIMA; la quinta, un contraste del modelo lineal ARIMA con
modelos automáticos de series desarrollados por las industrias en su día a día y el
modelo de pronóstico actual manejado por la organización; la sexta parte presenta la
comparación y selección de la mejor metodología de pronóstico de la demanda y por
último la séptima sección presenta el cálculo de la capacidad requerida del horizonte de
planeación para poder así entrar a hacer uso de este pronóstico con fines de la
planeación de la producción en capítulos posteriores.
4.1 Teoría General Sobre Decisión y Pronóstico con Series de Tiempo
4.1.1 Descripción de los Pronósticos en la Planeación
Muchos autores defienden la posición sobre la importancia de un buen pronóstico en las
empresas hoy en día. Chase et al (2009) arguye que pronosticar es vital para todas las
decisiones de la gerencia y como base de la planeación corporativa de largo plazo.
Chatfield (1996), por ejemplo, expresa que el pronóstico de variables de una observada
serie de tiempo es un problema importante en muchas áreas incluyendo la economía,
la planeación de la producción, las ventas y los controles de inventarios. Evertt y Ronald
( 998 Sección 3) dicen te tualmente “Si bien todos los elementos de la administración
de operaciones son importantes, considero que los pronósticos son uno de los elementos
decisivos en la estructura de operaciones” y expone el ejemplo de los beneficios que trae
un buen pronóstico en la empresa Donaldson Company, Inc. Con ellos muchos otros
autores como Norman Geither y Greg Fraizer, Lee Krajewsky, Buffa Sarin, Adam y Ebert y
Riggs definen los pronóstico como un elemento vital a la hora de tener en cuenta la
planeación.
Los métodos de pronóstico en series de tiempo pueden estar divididos en tres
grupos según Chatfield (1996): los subjetivos, los univariados y los multivariados.
Los métodos subjetivos están basados en la intuición, el juicio personal y el conocimiento
de cada agente económico. Van desde la extrapolación hasta la técnica Delphi la cual son
preguntas hechas a un grupo de expertos para llegar a recabar información y
40
opiniones9. Los métodos univariados están basados en el ajuste de un modelo solo usado
el pasado de la serie. Los métodos multivariados dependen de una o más series llamadas
series explicativas o variables de predicción donde por ejemplo las ventas pueden
depender de cambios en los niveles de inventarios, o cambios es ciertos
indicadores económicos.
Siempre es recomendable hacer uso de dos o más métodos de pronóstico sin embargo la
escogencia del método dependerá de ciertas consideraciones como el objetivo
del pronóstico, la cantidad de datos con que se cuenta, el horizonte de planeación,
la descomposición de la serie e inclusive el departamento norte en la brújula de los
macro-procesos, el área de mercadeo quien otorga la información necesaria para definir
qué condiciones podrían llegar a afectar la demanda dentro del horizonte de tiempo
planeado para poder llegar a incorporar esos choques exógenos al modelo de pronóstico.
Harrison y Pearce (1972) recomiendan que no se debería hacer un pronóstico muy lejano
de la serie y además que este pronóstico no debe exceder la mitad de la longitud de
tiempo que se está usando en la serie univariado.
No importa cual método de pronóstico se utilice, siempre es indispensable un esquema de
monitoreo como por ejemplo el uso de señales de rastreo o TS (Tracking Signals) para
detectar posibles cambios o inconvenientes en nuestros pronósticos en el tiempo. Garden
(1983) explica este concepto más detalladamente.
4.1.2 Funciones de pérdida de error de pronóstico simétricas.
Las funciones de pérdida de error de pronóstico o funciones de costo de pronóstico
pueden ser divididas en dos grupos: las funciones de costos simétricas como el MAPE,
MAE, MSE o el RMSE y las funciones de costos asimétricas como LINLIN o LINEX que
como expresa Granger (1969) implican un pronóstico más complejo que depende tanto de
la distribución del error pronóstico como de la función de costo por sí misma. Estas
funciones presentan restricciones en su definición puesto que se deben presentar ciertas
condiciones para que una función sea catalogada como de costos. El Anexo 10.6.1.
Funciones de Pérdida muestra algunas de estas funciones las cuales se utilizarán a lo
largo de este capítulo.
4.2 Descripción de los Datos
Debido a que el propósito fundamental de este trabajo es la realización de un plan de
producción para la empresa de estudio, fue necesario obtener la demanda de Lavalozas
por medio de una variable que emule dicho fenómeno o por lo menos se aproxime lo
mejor posible al proceso estocástico que sigue la demanda, esta variable está
determinada por las ventas de la empresa dadas por el registro organizado de inventarios
o Kardex. Este registro permitió obtener el número total de unidades vendidas diariamente
de cada una de las 58 referencias de la empresa.
9 Para más detalle ver Everett y Ronald (1991) sobre técnicas cualitativas de pronóstico.
41
Teniendo en cuenta que una de las variables primordiales en un plan de producción es la
capacidad del proceso, se debe considerar el abarcar todas las referencias para poder
obtener una respuesta adecuada acerca de la utilización de capacidad máxima disponible.
Para ello y como se mencionó en la sección 3.5. Representantes Tipo, se procedió a
dividir las 58 referencias en 5 grandes categorías, estas categorías fueron determinadas
por los cinco diferentes pesos que se venden al mercado: 250g con 7 referencias, 500g
con 25 referencias, 1000g con 22 referencias, 1500g con 2 referencias y 3000g con 2
referencias. Esta categorización tiene un sustento práctico, debido a que dentro del
proceso productivo, la única diferencia que existe en tiempos de producción y capacidad
de proceso radica en el tamaño de la presentación del producto final, esto se demostró
anteriormente en la sección 3.6. Estudio de Tiempos Estándar de Producción.
Debido a que el programa contable Helisa10 que utiliza la empresa para el manejo de
inventarios y estados de resultados arroja los consolidados totales en Excel de todos los
productos de la organización y teniendo en cuenta que la organización cuenta con 255
referencias aparte de los lavalozas, los cuales únicamente se realizan bajo externalización
y no cuentan con un proceso productivo dentro de la planta, fue necesario extraer las
ventas de las 58 referencias de interés por medio de la programación de un código en
Visual Basic de Excel11. Este código permite obtener del archivo consolidado, el cual se
presenta con frecuencia diaria desde el primero de enero de 2010 hasta diciembre de
2013, para todas las 313 referencias (un total de 80106 observaciones), las ventas
mensuales de cada una de las referencias que se seleccionen previamente.
Una vez obtenido las ventas de las 58 referencias por separado, se procedió a construir
cada una de las cinco categorías previamente descritas. Sin embargo, dado que la
demanda que se obtiene de Helisa está dada en embalajes (cajas) vendidos, fue
necesario multiplicar cada uno de los embalajes por el número de unidades de lavaloza
que contiene cada embalaje. Esto es necesario de realizar previo a la construcción de las
categorías debido a que de lo contrario se estarían sumando embalajes de diferentes
cantidades y el final sólo tendríamos como resultado el número de embalajes vendidos
mezclados por referencias y no el número de unidades de lavaloza vendidos. Ya con las
unidades de lavaloza vendidas, se procede a sumar las ventas de cada una de las
referencias en cada categoría. Esto se pudo realizar, únicamente sabiendo que las
referencias que componen a cada una de esas cinco categorías cuentan con el mismo
proceso productivo y por tanto son en si el mismo producto.
De llegar a ser el caso de obtener que alguna de las referencias dejó de venderse, como
lo fue el caso de 7 referencias en la categoría de 1000g, fue necesario obviar dichas
10 Helisa es un software contable con fines administrativos y de gestión de inventarios, el cual
posee varias herramientas como la gestión de ventas y de compras, la administración de propiedad horizontal, la administración de inventario, el manejo de nómina y administración del recurso humano, entre otras. Para mayor información véase: www.helisa.com 11 El código se presenta como Anexo 10.8.1. Sección 1. Código VBA para la extracción de las
series de interés en consolidado de ventas al final de este documento.
42
referencias para la construcción de la categoría. Esto debido a que si dicha referencia
dejo de producirse, no debería ser tenida en cuenta para el pronóstico de la demanda
puesto que sesgaría hacia arriba los resultados.
En conclusión, se recopilaron cinco referencias de lavalozas en unidades de producto
terminado, cada una con tiempos de producción diferentes. Estas referencias fueron
250g, 500g, 1000g, 1500g y 3000g. La dimensión de tiempo de cada una de ellas está
dada desde enero de 2010 hasta febrero de 2014 con 50 observaciones en total a
diferencia de la presentación de 250g la cual va desde junio de 2010 hasta febrero de
2014 contando con 45 observaciones en total.
El Anexo 10.6.3. Descripción de los Datos muestra la compilación en niveles de las cinco
series en su forma final. Para propósitos de programación de códigos en los diferentes
paquetes estadísticos, estas series fueron llamadas R250, R500, R1000, R1500 y R3000
haciendo referencia a cada uno de los cinco tamaños.
Como se verá más adelante, estas series estarán divididas en dos períodos, cada uno
con un propósito diferente. El primer periodo, o periodo de estimación, corresponde a la
muestra desde el inicio (enero 2010 o junio 2010 para R250) hasta marzo de 2013, con un
total de 34 observaciones. Mientras que la evaluación rolling para observaciones fuera de
la muestra va desde abril 2013 hasta febrero de 2014 por un proceso de evaluación que
se explicará en detalle más adelante.
4.3 Add In en Excel Para el Manejo de Series de Tiempo Para Uso Empresarial.
Con el propósito de elaborar una herramienta sólida para el manejo adecuado de la
planeación de la demanda en la organización de estudio, se desarrolló paralelamente a
este trabajo de grado un aplicativo en forma de complemento de Microsoft Excel para
sistemas operativos Windows llamado también Excel Add In. Este complemento puede
ser consultado en el CD anexo a este documento y se presenta como una cinta de
opciones desplegada por una pestaña que permite realizar ciertos procesos que se
desarrollarán en este trabajo, así como el manejo adecuado, organizado y eficiente de los
datos de demanda en la organización.
Al complemento desarrollado se le dio el nombre de ASTEX por sus siglas: Análisis de
Series de Tiempo en Excel. Este complemento presenta diferentes opciones las cuales
serán explicadas en detalle a lo largo del trabajo cuando sea necesario. Cabe resaltar que
debido al lenguaje de programación que lo fundamenta, ASTEX funciona únicamente en
programas Microsoft Excel 2007 en adelante y en plataformas Windows.
A continuación se procederá a explicar cómo se logra montar el Add in de ASTEX en
cualquier Excel de cualquier computador, cómo funciona este complemento y cuál es su
estructura base.
43
4.3.1 Instalación de ASTEX en Microsoft Excel
Como se mencionó anteriormente, ASTEX es un complemento a Excel y por tanto debe
ser montado como tal. Para llegar a instalarlo es necesario tener tanto el complemento
ASTEX.xlam como un programa Excel activado y funcionando correctamente. Debido a
que ASTEX trabaja con un lenguaje de programación basado en Visual Basic para
Aplicaciones (VBA de aquí en adelante) el cual se lee a través de Macros y funciones, es
necesario que se tengan previamente habilitadas las mismas.
Se puede activar el complemento ASTEX siguiendo estos sencillos pasos:
1. Se guarda el archivo ASTEX.xlam en la carpeta que contiene los complementos
de Excel, la cual se puede encontrar en la mayoría de los casos en la ruta
“C:\Users\user\AppData\Roaming\Microsoft\AddIns” o puede ser consultada más
adelante al dar el botón de Examinar (Browse) en la ventada de Add-Ins.
2. Una vez incluido el archivo en la carpeta, se activa la ventana Add-Ins la cual
puede ser iniciada en la pestaña Programador o abriendo la ventana de opciones
de Excel, presionado el botón de complementos y luego el botón Ir. Cualquier
forma abrirá la ventana que se presenta en el Anexo10.7.1 Ventana Para la
Instalación del add-in donde el valor resaltado muestra que el complemento
ASTEX existe y solo es necesario activar la casilla y dar OK para comenzar a
hacer uso de él.
Una vez instalado ASTEX correctamente, aparecerá una pestaña (ver ilustración 2.
Pestaña ASTEX) con todas las opciones que este cuenta. Esta pestaña cuenta con
diferentes bloques de opciones, cada una con un código de programación asociado y con
una utilidad diferente.
Ilustración 2 Pestaña ASTEX
Fuente: Desarrollado por el Autor
Cabe anotar que esta pestaña estará disponible siempre que se abra un nuevo o viejo
archivo de Excel sin necesidad de repetir estos pasos de instalación cada vez.
4.3.2 Funcionamiento de ASTEX
El complemento ASTEX funciona a través de una serie de códigos de programación en el
lenguaje VBA realizados por el autor12, donde cada botón tiene asociado uno o más
bloques de códigos.
12 Con excepción del código para la realización del correlograma el cual fue tomado del blog web
de Slava Dedyunkhin, el cual puede visitarse en el siguiente enlace web: http://dedyukh.in/index.php/autocorrelation-in-excel
44
El lenguaje de programación VBA permite asociar códigos con objetos, lo que facilita la
interpretación, uso y desarrollo del código a través de un útil formulario que puede ser
abordado fácilmente por cualquier persona sin siquiera ver una sola línea de código. Esto
se desarrolló con el propósito que sea una herramienta fácilmente aplicable por cualquier
persona en la organización, eso sí, con cierto conocimiento en series temporales y
manejo de datos.
ASTEX funciona integrando la utilidad de una hoja de cálculo en Excel con códigos de
programación fundamentados en teoría de series de tiempo que permiten realizar tareas
de manera iterada, cuando se desee y cambiando a conveniencia las variables de
entrada. Estos códigos siguen la estructura de cualquier algoritmo, por lo que son pasos
ordenados que cumplen un objetivo específico.
Cabe anotar que ASTEX es un aplicativo en fase de prueba donde se intentará a largo
plazo incluirle muchas más funciones y corregir posibles errores (bugs) en el programa.
4.3.3 Estructura de ASTEX
La estructura de ASTEX es sencilla e intuitiva. En general, su disposición se realiza de
izquierda a derecha, esto es, desde el bloque Base de Datos hasta el bloque Pronóstico
(ver ilustración 2. Pestaña ASTEX).
Sin entrar en detalles puntuales sobre la finalidad de cada uno de sus botones, puesto
que muchos de ellos son fácilmente interpretables y otros se explicarán detalladamente
en secciones posteriores, se procede a exponer cual es el propósito de cada uno de los
bloques con los que cuenta ASTEX.
1. Base de Datos: en este bloque se permite al usuario importar referencias
puntuales del consolidado de ventas u otros archivos Excel y generar reportes de
ventas con ellas, también se permite exportar hojas puntuales tanto a otros
archivos Excel como archivos PDF o XML y enviar por correo electrónico el libro
actual.
2. Descriptivas: este bloque permite al usuario interactuar con la serie para
determinar sus propiedades estadísticas, histograma de frecuencias, prueba de
normalidad Jarque Bera, graficar series y realizar un análisis de Pareto para
determinar los pocos vetos vitales de los muchos triviales.
3. Identificación: este bloque permite analizar más profundamente la serie de interés
por medio de correlogramas, pruebas de raíz unitaria como la ADF, y análisis de
estabilización de varianza y nivel por medio de las metodologías de Guerrero
(2003) y Anderson (1976) respectivamente.
4. Formulación: en este bloque se permite la estimación de modelos autoregresivos
por medio del estimador de Mínimos Cuadrados Ordinarios OLS así como la
posibilidad de realizar regresiones lineales con dos o más variables, de verificar
45
diagnósticos de los supuestos del modelo ARIMA y la por último de realizar un
remuetreo de los coeficientes de la regresión por OLS (BootStrapping OLS).
5. Utilidades: este bloque permite al usuario realizar una variedad de interacciones
con la serie. Entre las opciones con que se cuenta está la desestacionalización de
la serie por medio del método aditivo o multiplicativo, los suavizados
exponenciales y aritméticos, filtro de Hodrick-Prescott, calcular la matriz de
covarianzas o correlación de varias variables, herramientas útiles para las series
de tiempo como el adelantar, rezagar, diferenciar, restar la media o el cambio
porcentual de una serie y por último la posibilidad de generar números aleatorios
por medio de diferentes distribuciones de probabilidad.
6. Diagnóstico: este bloque permite al usuario realizar un análisis de los pronósticos y
su efectividad. Esto por medio del cálculo de medidas de error de pronóstico como
MAD, MSE, RMSE, MAPE, Theil U1 y U2, descomposición del MSE, la realización
de la señal de rastreo o Tracking Signal, y gráficas de valores ajustados y
residuos.
7. Plan Producción: este bloque es exclusivamente dedicado a la realización del plan
de producción para la organización de estudio Alianzas y/o Industrias Alta Pureza
S.A integrando el software GAMS para ejecutar el modelaje matemático del plan a
través de ASTEX. Para más detalle diríjase al Capítulo 5. Plan de Producción en la
Sección 5.3. Integración GAMS en ASTEX. Aunque está enfocado en la
organización de estudio, es posible modificar esta opción para cualquier tipo de
organización de producción.
8. Ayuda: este último bloque permite al usuario consultar como es el funcionamiento
en detalle de cada uno de los botones y ver ejemplos aplicados para su mejor
entendimiento. De igual manera, la ayuda es accesible desde cualquier formulario.
4.4 Metodología Lineal: Box-Jenkins Modelo ARIMA
Esta metodología fue propuesta por George Box y Gwilym Jenkins en su libro llamado
Time Series Analysis, Forecasting and Control en 1970 y sigue un procedimiento basado
en modelos Autoregresivos Integrados de Medias Móviles (ARIMA), la cual será explicada
en detalle el siguiente apartado. Chatfield (1996) expone brevemente esta metodología
Box-Jenkins con la siguiente estructura lógica:
a. Identificación del modelo: En esta etapa se examinan los datos para determinar
cuál clase del proceso ARIMA parece ser apropiada para el conjunto de
información disponible.
b. Estimación: Se estiman los parámetros del modelo previamente escogido
usando las técnicas apropiadas para el ajuste de procesos ARIMA y estimación
del dominio del tiempo.
c. Diagnóstico y comprobación: Se examinan los residuales del modelo ajustado
para ver si el modelo es adecuado.
d. Considerar modelos alternativos si es necesario: Si por algún motivo el modelo
escogido parece ser inadecuado para el pronóstico, entonces es necesario probar
46
otro tipo de modelo autoregresivo integrado de media móvil hasta que se
encuentre el modelo más adecuado para los datos.
Box y Jenkins fueron desarrollando técnicas para tratar procesos no estacionarios con
series integradas basados en pruebas de raíz unitaria y usando diferencias en las series.
De esta forma el primer paso en la metodología es diferenciar la serie hasta que esta se
vuelva estacionaria, por lo que es necesario saber el grado de integración de la misma
para saber cuántas veces debe ser diferenciada, esto se logra examinando el
correlograma de varias diferencias hasta que se encuentre que una decae muy
rápidamente a cero y cuando cualquier ciclo estacional será completamente removido.
Además, Box y Jenkins desarrollaron modelos que fueron más robustos antes procesos
estacionales lo que llamaron a este el modelo SARIMA.
Los valores de p y q de los modelos SARIMA son seleccionados utilizando el
correlograma y la Función de Autocorrelación Parcial (ACF) donde se observa el periodo
estacional y se debería incluir en el modelo 13 . Una vez se tenga el modelo más
prometedor se estima por Mínimos Cuadrados Ordinarios MCO obteniendo la
minimización de la suma de residuales al cuadrado de manera similar que el modelo sin
efecto estacional ARMA. Sin embargo, existen varios otros modelos que pueden llegar a
estimar el modelo como por ejemplo las funciones de máxima verosimilitud o mínimos
cuadrados condicionales y no condicionales o la aproximación del filtro de Kalman.
A continuación se realiza según la metodología propuesta por Box y Jenkins el
diagnóstico comprobatorio del modelo que mejor se ajuste sea estacional o no. Esto se
logra mirando los residuos de la regresión para ver si son o no ruido blanco, es decir si
tienen comportamientos netamente estocásticos o hay algo más que puede estar
determinando a este modelo y que no lo estemos teniendo en cuenta. Para esto se hace
uso del correlograma de los residuos o de la prueba Q.
Cuando el mejor modelo es encontrado y se ajusta a los datos entonces se debe proceder
con el pronóstico de la variable para el horizonte de planeación, teniendo en cuenta el
razonamiento propuesto por Harrison y Pearce (1972) sobre el tamaño del pronóstico.
Continuando con la línea guía usada por Chatfield (1996) vemos que dado el conjunto de
datos en tiempo N, el pronóstico estaría determinado por las observaciones y los
residuales ajustados. Donde el mínimo error cuadrado promedio MMSE de la variable
en el tiempo N es valor esperado condicional de en el tiempo N, nombrada
como | , usando el hecho que el mejor pronóstico para
cualquier valor futuro del término de perturbación es cero.
Algunos paquetes estadísticos comúnmente usados otorgan la posibilidad de hacer la
modelación automática de modelos ARIMA pero con dudosos resultados como lo expone
Chatfield (1996, p. 75). Por lo que esta metodología Box-Jenkins al no ser automática se
basa en juicios más estructurados para la selección del modelo ARIMA apropiado acorde
a el análisis de series de tiempo univariado. Puede ser combinada con ajustes
estacionales como el método X-11 ARIMA y modelos multivariados generalizados.
13 Box y Jenkins (1970) hacen un conglomerado de las funciones de autocorrelación parcial de
varios modelos SARIMA como ejemplo.
47
Este método es bastante útil para series con una buena correlación de corto plazo, en la
cual los valores más inmediatos a la observación tienen una correlación más alta que
valores más lejanos a la misma. Relacionando esto con el trabajo de grado, a priori se
creería que el número de ventas puede llegar a estar relacionado más directamente con
su pasado inmediato, pues en realidad bajo las mismas condiciones que la subyacen
(Ceteris Paribus) la demanda de un producto un mes depende mucho de la demanda del
mismo los meses inmediatamente anteriores y no con los más lejanos, acorde con la
teoría del ciclo de vida de los productos (Introducción, crecimiento, madurez y descenso).
Pues como lo expone Lamb, Hair y McDaniel (2011, p. 379) el ciclo de vida de un bien es
bastante útil como herramienta o mecanismo de pronóstico dentro de las implicaciones
del Marketing Management, esto debido a que todos los productos pasan por unas etapas
que permiten calcular la ubicación de dicho producto en el ciclo haciendo uso de datos
históricos pues estos tienen a seguir una ruta predecible durante el ciclo de vida y por lo
tanto su pasado inmediatamente anterior tendrá una correlación más alta que el pasado
más alejado de la observación en un tiempo determinado dentro de su ciclo de vida.
El Anexo 10.6.4. Esquema Metodología ARIMA presenta una tabla que resume algunos
de los elementos a tener en cuenta en cada una de las preguntas que surgen en cada
etapa propuesta por el método Box-Jenkins. Este cuadro puede llegar a ser tomado como
una guía a la hora de entender el planteamiento del modelo ARIMA y será base de la
aplicación del modelo como se verá más adelante en esta sección.
4.4.1 Modelo General
Un modelo ARMA es un modelo del tipo estadístico que permite el modelaje de una serie
de tiempo y la predicción de su comportamiento. Este tipo de procedimiento es una
generalización de la combinación de dos modelos, uno autoregresivo (AR) y otro de
promedio móvil (MA), formando así el modelo ARMA, los cuales fueron estudiados a
profundidad por Wold (1954) y Bartlett (1946). El modelo tiene la siguiente forma.
donde y son polinomios de rezago en B de orden p y q respectivamente los
cuales forman el modelo ARMA(p,q), la serie representa un proceso estocástico
absoluto de ruido blanco que determina la fuerza con la que se mueve todo el sistema ya
que de lo contrario éste se quedaría quieto en todo momento; por último, la serie de
interés con media cero está representada por .
Según el teorema de representación de Wold (1954) , toda serie de tiempo estacionaria
débilmente puede ser descompuesta en dos partes, una determinística y otra estocástica,
no importa si ésta es lineal o no. En este caso el modelo ARMA representa este hecho,
puesto que está compuesto por una parte autoregresiva del tipo determinística y otra
parte promedio móvil del tipo estocástica.
48
La representación del modelo ARMA(p,q) puede darse de la siguiente forma, una vez
expandido el polinomio de rezagos para cada uno de los componentes
( ) (
)
donde al realizar la operación de rezago en B y despejar se tiene que
∑
∑
donde ∑ representa la parte autoregresiva hasta el orden p, ∑
la de promedios móvil hasta de orden q y .
Yaglom (1955) examinó que cierto tipo de no estacionariedad que representaba el
proceso de algunas series de tiempo, podía ser constituido mediante la toma sucesiva de
diferencias de la serie original hasta que ésta se represente como estacionaria. Esta toma
del operador de diferencias a la serie permitió la inclusión de procesos no
estacionarios a los modelos de Box y Jenkins, creando así los modelos ARIMA o
Autoregresivos integrados de promedios móviles, los cuales son una generalización de los
modelos ARMA.
Si el proceso original de obedece a uno del tipo no estacionario causado por una
tendencia en polinomio de orden d del tipo estocástica, denominada no estacionariedad
homogénea, es posible la construcción de un proceso estacionario a partir de la serie
original, donde por tanto el modelaje de un proceso ARIMA(p,d,q) estaría
determinado por la siguiente ecuación en diferencias
el término integrado trae consigo la siguiente definición: se dice que una serie es
integrada de orden d si es necesario diferenciarla d veces antes que ésta se represente
por un proceso estacionario hasta de orden dos, es decir débilmente estacionario.
Para determinar la estabilidad del modelo, es necesario que todas las raíces de su
ecuación auxiliar igualada a cero sean mayores que uno en magnitud. De lo contrario el
modelo no sería una representación estable puesto que no logra convergencia a nada.
Para aclarar esto, supóngase que se cuenta con un modelo ARMA(1,0) o lo que es lo
mismo AR(1), representado de la siguiente manera donde es una
constante y es ruido blanco.
Al tomar operador de rezago B a toda la ecuación se obtiene que
donde representa la ecuación auxiliar del modelo AR(1). Al igualar esta
ecuación auxiliar y despejar el operador de rezago B se encuentra que
, la
magnitud de esta última ecuación | | representa la raíz de dicha ecuación auxiliar, la
cual como se observa debe ser mayor que 1 en magnitud para que el modelo sea estable
49
o lo que es lo mismo | | , pues de lo contrario no sería posible obtener convergencia
y el modelo sería e plosi o. La rapidez de la “explosión” del modelo estaría determinada
por qué tan alejado de la unidad por su dominio positivo es .
Al tomar el valor esperado a toda la ecuación diferencial y bajo el
supuesto que la mejor predicción del valor esperado del error es cero debido al hecho
que se está minimizando la suma cuadrada de errores se tiene que
, debido al supuesto fundamental de los modelos ARMA sobre la
estacionariedad de la serie, se tiene que el valor esperado de la serie en el momento t es
el mismo para cada uno de los períodos de tiempo, por lo que . Este
supuesto permite obtener la siguiente igualdad
de igual manera como se realizó con el modelo ARMA(1,0) es posible encontrar la
estabilidad del modelo, la media y otras propiedades estadísticas para cualquier otra
combinación de parámetros {p,q}.
Es necesario mencionar que todo proceso MA(q) es estacionario puesto que es
representación de una suma de ruidos blancos, los cuales por definición son
independientes e idénticamente distribuidos y estacionarios.
Para una revisión profunda sobre la teoría, modelaje y representación de los modelos
ARMA(p,q) y ARIMA(p,d,q) véase: Chatfiled (1996), Guerrero (2003), Pankratz (1983),
Enders (1948), Fuller (1996), Hamilton (1994), Montenegro (2010) o Brockwell y Davis
(2002).
A continuación, se procederá a desarrollar a detalle cada una de las etapas del modelo
lineal propuesto ARIMA. Para la primera etapa se explicará la teoría a utilizar y se aplicará
ésta en el objeto de estudio planteado en este trabajo en cada uno de los pasos. Sin
embargo, paras las demás etapas se presentará la teoría primero y al final se mostrarán
los resultados de la estimación-diagnóstico-pronóstico. Todo esto para facilitar el
entendimiento del documento y vincular la teoría con la práctica para cada etapa.
Adicionalmente, donde sea necesario se acoplará la teoría con el desarrollo practico
utilizando el complemento ASTEX.
4.4.2 Etapa de Identificación
La etapa de identificación es la primera dentro del planteamiento del modelo ARIMA. Esta
etapa puede llegar a ser la más importante dentro del ciclo del método debido al hecho
que en esta etapa se está obteniendo e identificando por medio del análisis de la serie el
orden plausible que debería seguir cada parámetro. Se podría comparar con el momento
en que por medio de una radiografía un doctor evidencia la raíz del problema y se dispone
a atacarlo.
50
Debido a que por la teoría, el modelo únicamente puede desarrollarse con series
estacionarias, es necesario obtener una serie del tipo estacionaria de la original, esto para
que pueda ser representada como un ARMA (p, q) y poder encontrar el orden de los
polinomios autoregresivos, es decir p y de promedios móviles q, así como el orden de
integración de la serie para poder así cancelar la no estacionariedad homogénea de la
misma, esto se realiza por medio del operador de diferencias.
El desarrollo de esta etapa estará basado en la metodología propuesta por Guerrero
(2003) para la estabilización de la varianza, las técnicas de estabilización de nivel de
Anderson (1976) y las pruebas de raíz unitaria de Dickey y Fuller (1979) bajo los
lineamientos propuestos para su identificación en Enders (1948).
4.4.2.1 Estabilización de la Varianza
Debido a que la definición de estacionariedad nos dice que una serie es estacionaria
cuando sus momentos hasta de segundo orden no varían en función del tiempo, es decir
su media y su varianza no fluctúan con el paso del tiempo, es preciso buscar un método
que encuentre una transformación estabilizadora de la varianza en la serie original, esto
con la finalidad que no cambie en el tiempo y que sea posible su representación en el
modelo ARIMA.
La estabilización de la varianza bajo el método de transformación propuesto en Guerrero
(2003) y presentado en el Anexo 10.6.5 Estabilización Varianza requiere que no existan
observaciones negativas y la diferenciación para la estabilización del nivel puede llegar a
crear valores negativos, es necesario entonces por ello realizar primero la estabilización
de la varianza y luego a continuación la del nivel, el cual se verá en la siguiente sección.
La siguiente tabla muestra algunas potencias comúnmente utilizadas en la literatura y
sus transformaciones asociadas.
Valores de Transformación
-1.0
-0.5 √
0.0
0.5 √
1.0 (No sufre transformación)
Tabla 16 Valores típicos de y su transformación
Fuente: Tomado de Guerrero(2003,p.159)
Aplicación a la práctica
Con el objetivo de ahorrar tiempo y realizar de manera automática y cuando se desee los
resultados de la estabilización de la varianza propuesta por Guerrero (2003), se procedió
a hacer uso de ASTEX el cual tiene el propósito de realizar de manera automatizada
todos los pasos descritos anteriormente en la teoría de estabilización de la varianza según
51
Guerrero (2003)14. La forma detallada de uso del aplicativo ASTEX para la estabilización
de la varianza se puede consultar en el Anexo 10.7.2. Estabilización de la Varianza con
ASTEX. Con el objetivo de hacer más clara la explicación del aplicativo en la
estabilización de la varianza se presenta en dicho anexo la realización de un ejemplo de
este proceso paso a paso para la serie LR1000.
Teniendo claro este procedimiento se presenta a continuación la tabla que resume las
potencias que estabilizan las varianzas para cada uno de las variables de estudio,
siguiendo la misma metodología del ejemplo para R1000.15
Variable
R250 R500 R1000 R1500 R3000
Potencia 0.04434 -0.34133 0.22326 -0.26291 -0.13835
√
Notación usada
LR250
TR500
LR1000 LR1500 LR3000
Tabla 17 Resumen de potencias estabilizadoras de la varianza
Fuente: Cálculos del Autor.
4.4.2.2 Estabilización del Nivel
Una vez encontrada la transformación que logra estabilizar las variaciones de la
serie, se procede a estabilizar el nivel. Esto se logra por medio de la aplicación del
operador de diferencia el número de veces que sea necesario. Este operador , es la
herramienta para encontrar el orden de integración de la serie, es decir, el número de
veces que es necesario diferenciar la serie hasta que ésta se vuelva estacionaria. Como
se mencionó anteriormente, la letra I en el acrónimo ARIMA hace referencia a dicho orden
de integración y se escribe como .
En la práctica este orden de integración para la mayoría de variables económicas no
supera el segundo o tercer orden, ya que entre mayor sea éste cualquier choque exógeno
a la variable tendrá efectos más rápidos y permanentes lo que ocasionas que la serie
tienda a desviarse con mayor facilidad de su media, y esto es muy complejo de obtener
para una serie con comportamientos como la mayoría de series económicas. Es
recomendable no sobre diferenciar la serie, debido a que se pueden encontrar problemas
al intentar identificar un posible proceso generador de la serie observada (Véase Guerrero
(2003), p.159).
14 Este código se puede encontrar en el Anexo 10.8.2. Código VBA para la automatización de la
transformación estabilizadora de varianza. 15 Los resultados de las otras cuatro referencias se presentan en el Anexo 10.9.1. Resultados de
las transformaciones estabilizadoras de varianza.
52
Un operador de diferencias de primer orden o primera diferencia de la serie se define
como la resta entre la serie en el periodo t menos la serie un periodo de tiempo rezagada,
es decir en t-1, así
sin embargo, el orden de integración no se puede determinar arbitrariamente. En la
práctica existen varias herramientas posibles para identificar el orden de integración de la
serie, algunas más empíricas que otras. Anderson (1976, p. 116) propone un método
donde el grado de diferenciación requerido para que una serie sea estacionaria se puede
determinar mediante el cálculo de la desviación estándar muestral de las series
transformadas por la varianza y diferenciadas hasta el orden 3. Es decir
y las cuales se denotan como y , donde
∑ [ ∑
]
En este caso si d es el orden de integración de la serie requerido, se debe cumplir que
es decir, para un N suficientemente grande, se debe cumplir que el grado de
diferenciación necesario d está dado por la mínima desviación. Sin embargo, el mismo
Anderson explica que este método no siempre tiene porque funcionar y que debería verse
como una herramienta complementaria y jamás como un método definitivo.
Otro método más avanzado y comúnmente utilizado es el del problema de las raíces
unitarias del polinomio característico de la ecuación auxiliar. Según Guerrero, estas
pruebas se catalogan como un complemento formal a: (i) la gráfica de serie versus
tiempo, (ii) la ACF y PACF muestral16 y (iii) la varianza muestral de la serie con el objetivo
de identificar el orden de integración.
Dentro de las pruebas de raíz unitaria existen un abanico amplio de posibilidades, las más
comúnmente utilizadas son las pruebas paramétricas de Dickey Fuller Aumentada ADF y
las no paramétricas de Phillps Perron PP. Sin embargo, actualmente ha tomado bastante
popularidad la prueba Dickey Fuller con Mínimos Cuadrados Generalizados GLS-DF.
Todas estas pruebas trabajan bajo la misma hipótesis nula donde se dice que la serie
presenta raíz unitaria por lo que es una serie no estacionaria en media. El hecho que
presente raíz unitaria indica que las raíces de la ecuación auxiliar del polinomio
característico son menores o iguales que la unidad en magnitud, por lo que la serie sería
no estacionaria y los choques transitorios a la variable tendrían efectos permanentes. Por
lo que en la práctica todos los inversos de las raíces deben estar dentro del circulo
16 Una definición formal sobre la Función de Autocorrelación ACF y Función de Autocorrelación
Parcial PACF se presentará en la Sección 4.3.1.3. Identificación de los parámetros ARMA(p,q) más adelante en este capítulo.
53
unitario para que el modelo sea estable y converja a un estado estacionario (Steady
State) en el largo plazo. Es por ello que es requerimiento del modelo ARIMA que la serie
sea estacionaria y por ese motivo, ésta y la anterior sección han buscado estabilizar la
serie, de lo contrario el modelo no converge y se considera como un modelo explosivo.
En el Anexo 10.6.6. Prueba Dickey Fuller Aumentada ADF se da una breve explicación de
la prueba de raíz unitaria que se tendrá en cuenta para la estabilización del nivel de la
serie, en busca del orden de integración de cada una.
Aplicación a la práctica Anderson (1976, p.116)
El desarrollo de este ejercicio práctico se realizará complementando las pruebas de raíz
unitaria con la metodología propuesta por Anderson (1976). De manera similar a cómo se
desarrolló en la estabilización de la varianza, se tomará como ejemplo una de las series a
trabajar y se presentarán los resultados para las otras cuatro. Esto con el fin de no
extender innecesariamente este documento. Una vez más se tomará la serie para
ejemplificar la teoría presentada anteriormente y se hará uso del aplicativo creado en VBA
de Excel ASTEX. Este procedimiento se puede consultar en el Anexo 10.7.3.
Estabilización del Nivel con ASTEX.
De manera similar se realizó la misma operación para las otras cuatro variables donde se
registraron los resultados en el Anexo 10.9.2 Resultados Estabilización Varianza Método
Anderson. Como se puede observar en dicho anexo todas las desviaciones tienen su
mínimo en la primera diferencia para cada una de las series a excepción de la serie
LR1500 la cual tiene su mínimo en el evento cuando no es necesario tomar ninguna
diferencia a la serie. Sin embargo, es necesario notar que las series TR500, LR1000 y
LR3000 tienen valores muy cercanos entre las diferencia mínima y el siguiente valor más
alto, por lo que no es fuertemente evidente que sea necesario diferenciar la serie dicho
número de veces, cuestión que no sucede con las series LR250 y LR1500 donde el
siguiente valor mínimo está a más del doble del primero y por tanto la selección del orden
de integración es mucho más inclinada a ser .
Por ello es necesario argumentar mejor la respuesta con las prueba de raíz unitaria, para
evitar problemas de sobre o sub diferenciación, siendo ésta ultima la más grave debido a
que los resultados teóricos que se usan en las series de tiempo, únicamente son válidos
para series estacionarias, de lo contrario la interpretación sería errada y los pronósticos
traerían errores crecientes en el horizonte de tiempo además de subestimar la varianza
del pronóstico y perder capacidad adaptativa a efectos estacionarios en nivel. (Véase
Guerrero (2003), p. 160).
Considerando todo esto, se presenta en seguida la tabla que resume los resultados para
todas las variables acorde a la metodología propuesta por Anderson (1976).
54
Variable Orden de Integración
Tabla 18 Ordenes de integración basado en Anderson (1976)
Fuente: Realizado por el Autor.
Aplicación a la práctica pruebas de Raíz Unitaria
De la misma manera como se desarrolló en la estabilización de varianza y el nivel bajo el
método de Anderson (1976), se explicará en detalle los resultados de las salidas para la
variable LR1000, con el propósito de hacer más clara la asociación de la teoría
presentada anteriormente con el desarrollo práctico de este trabajo y se mostrarán aquí el
resumen de los resultados de las demás series temporales. Este procedimiento para la
variable LR1000 se presenta en el Anexo 10.6.7 Prueba de Raíz Unitaria para la Serie
LR1000
Resultados Prueba Raíz Unitaria
Serie ADF Observaciones Estadísticos17
para el modelo menos restringido presentó un estadístico t de -2.61 el cual para un total de 50
observaciones en es mayor que el valor critico a cualquier nivel de significancia por lo que se procedió a probar la significancia de la tendencia lineal. Esta dio que no era significativa puesto que es menor que un valor critico de 5.61 al 10%. Al estimar sin tendencia lineal habiendo realizado el método de propagación hacia atrás y logrando mantener se obtuvo que el
estadístico t que acompaña a era de -0.634 por lo
que para un al 10% no es posible
rechazar la hipótesis nula de raíz unitaria. Se probó que el componente determinístico del corrimiento no era significativo por medio de , por lo que se eliminó de la regresión y se probó el t estadístico de en el modelo (D5), una vez más realizando el método de propagación hacia atrás, arrojando un valor de 0.79 el cual es mayor que cualquier valor crítico y por tanto se concluye que no se puede rechazar que la serie tenga raíz unitaria. No tiene corrimiento ni tendencia determinística.
para el modelo menos restringido presentó un estadístico t de -4.99 el cual para un total de 50
observaciones en es menor que el valor critico a cualquier nivel de significancia por lo que la serie no
17 * simboliza significancia al 1%, ** al 5% y *** al 10% en las tablas Fuller (1976) y/o Dickey et al (1981). La
ausencia de estos simboliza no significancia.
55
presenta raíz unitaria. La serie además tiene tendencia determinística, la cual deberá ser eliminada por medio de algún método (detrend).
Solo constante significativa. Ver explicación arriba.
para el modelo menos restringido presentó un estadístico t de -1.53 el cual para un total de 50
observaciones en es mayor que el valor critico a cualquier nivel de significancia por lo que se procedió a probar la significancia de la tendencia lineal. Esta dio un el cual es menor que el nivel critico 5.61 al 10% por lo que reestimó el modelo ahora sin tendencia lineal, realizando la propagación hacia atrás cuyo resultado determinó el mismo . Este modelo arrojó un t estadístico
asociado a de , por lo que al
contrastarlo con el valor critico de -2.60 para una significancia del 10% no es posible rechazar la hipótesis nula de raíz unitaria. Se procedió a probar entonces el la significancia del corrimiento por medio de donde se obtuvo que el cual es menor que el valor critico de 3.94 a una significancia del 10%, es decir que el corrimiento debe ser sustraído del modelo. Se corrió entonces el modelo (D5) sin constante ni corrimiento realizado de nuevo la propagación hacia atrás, se observó que el valor t asociado a toma un valor de el cual es mucho más pequeño que cualquier valor crítico, por lo que no se puede rechazar la hipótesis nula de raíz unitaria. En tanto se tiene que el ultimo rezago sigue siendo el primer rezago significativo al 5% con un valor t de -2.57 y sigue existiendo ruido blanco en el término de perturbación .
para el modelo menos restringido presentó un estadístico t de -6.73 el cual para un total de 50
observaciones en es menor que el valor critico a cualquier nivel de significancia por lo que la serie no presenta raíz unitaria. La serie además tiene tendencia determinística, la cual deberá ser eliminada por medio de algún método puesto que el comportamiento es estacionario.
Tabla 19 Resumen Pruebas Raíz Unitaria
Fuente: Realizado por el Autor.
Por consiguiente para el análisis del modelaje ARIMA se trabajarán las series como la
transformación de la varianza para TR500 (detrend), LR1000 y LR3000 (detrend).
Mientras que se tomará la primera diferencia del logaritmo natural para las demás series.
Cabe resaltar por último que, conociendo el máximo número de rezagos acorde a lo visto
anteriormente, es posible realizar la prueba ADF en el complemento ASTEX de Excel.
56
Este procedimiento en ASTEX se presenta en el Anexo 10.7.4 Prueba de Raíz Unitaria
ADF con ASTEX
4.4.2.3 Identificación de los parámetros ARMA(p,q)
Una vez estabilizada la varianza y el nivel de las cinco series, es necesario proceder con
el ajuste del mejor modelo; para ello se debe observar, analizar e interpretar lo que la ACF
y la PACF nos quieren decir.
Previamente a entrar a discutir el orden de los modelos en la práctica para cada una de
las cinco series, resultará conveniente realizar un repaso rápido sobre lo que es una ACF
y PACF y cuál es su utilidad para esta etapa de identificación. Este repaso se puede
encontrar en el Anexo 10.6.8. Función de Autocorrelación ACF y Función de
Autocorrelación Parcial PACF
En general, la ACF y PACF pueden llegar a comportarse de muchas maneras debido a
los componentes estocásticos o de ruido que pueden entrar al sistema y dificultar la
concordancia entre las funcione teóricas y prácticas; sin embargo, autores como Chatfield
(1996), Enders (1948), Guerrero (2003) y muchos otros, han ejemplificado los
comportamientos típicos de las funciones para ciertos procesos autoregresivos, de media
y móvil y combinaciones de los dos. En general los procesos mixtos son bastante
complejos de determinar por medio de la ACF y PACF únicamente.
Por lo tanto, adicionalmente a este proceso se podrían realizar metodologías de búsqueda
de parámetros como el método SCAN (Smallest CANonical correlation method), ESACF
(Extended Sample Autocorrelation Function) o MINIC (MINimum Information Criterion) el
cual es un método que identifica de forma tentativa, con la búsqueda del mínimo criterio
de información, el orden de un proceso ARMA estacionario e invertible. Debido a que
estas herramientas serán utilizadas en esta fase de la etapa de identificación, es
conveniente abordar un poco de su teoría para entender cómo aplicarlo a la práctica. Por
ello el Anexo 10.6.9. Metodologías SCAN, ESACF y MINIC presenta la teoría detrás de
estos tres métodos.
Aplicación a la práctica
Con el propósito de hacer lo suficientemente claro el proceso de identificación por medio
de la ejemplificación de una serie, el documento base el Anexo 10.6.10. Identificación
Serie LR1000 presenta el ejemplo de la aplicación práctica, paso a paso y detallado de
cómo se identificó la serie de ejemplo con la cual se ha venido trabajando. En este anexo
se presenta además la creación de una función en MATLAB (ARIMAIN.m) con el
propósito de servir como ayuda adicional en el proceso de identificación de las series de
tiempo. Por consiguiente es importante que se revise este agregado.
Ahora bien, en el Anexo 10.9.3 Resultados Identificación Series Restantes es posible
consultar el análisis de los resultado del proceso de identificación de las series restantes
57
de una manera más compacta a la realizada para la serie de ejemplo LR1000. Este anexo
presenta las salidas de cada proceso y su respectiva interpretación.
Sustracción de la tendencia de las series LR3000 y TR500 (Detrending)
Como se señaló anteriormente, las pruebas de raíz unitaria para las series TR500 y
LR3000 mostraron que, además de ser series integradas de orden cero son series cuya
tendencia determinística debe ser sustraída por medio de algún proceso de eliminación de
tendencia (detrending) como filtros o regresiones, más no por medio de la diferenciación
puesto que la primera diferencia de un proceso que es estacionario en tendencia (TS)
conllevaría a que no sea invertible. En general, se sabe que estas dos series son
estacionarias pero poseen una tendencia determinística que debe ser sustraída por
alguno de estos métodos de detrending. A continuación se mostrará el proceso de
sustracción de tendencia para la serie TR500, se mostrarán los resultados del mismo
proceso para la serie LR3000 y se desarrollará el análisis de identificación de cada una de
las series.
El proceso de detrending para ambas series se llevó a cabo regresando la variable { }
contra una constante y un polinomio determinístico con tendencias de hasta grado n, es
decir18
Donde sigue un proceso estacionario. El orden aproximado del polinomio se obtuvo por
medio del método de propagación hacia atrás iterada, parecido a la forma como se obtuvo
el número de rezagos que debería ser incluido en la prueba ADF. Es decir, se debe
elegir un número lo suficientemente alto de n e ir probando la significancia estadística por
medio del estadístico t para el último grado n, significancia conjunta para los grupos de
rezagos por medio del estadístico F o bien por criterios de información como AIC o SIC.
Se prueba entonces la significancia del coeficiente por medio del estadístico t, si este
no permite rechazar la hipótesis nula de insignificancia, se reestima el modelo ahora hasta
n-1 donde se probará de nuevo la significancia de , así continua el proceso hasta
encontrar el grado del polinomio de tendencia determinística. En ese momento se
guardan los residuos quienes representan la serie original menos el valor ajustado
(tendencia), es decir la serie una vez sustraída la tendencia.
Para el caso de TR500 se tomó un valor de n igual a 7 donde se realizó el proceso de
propagación hacia atrás y del cual se obtuvieron los siguientes resultados
18 Siguiendo la notación de Enders (1948, p.166).
58
Prueba
(Ho)
Coeficiente
(t-stat) (AIC;SIC)
-5.51E-12
(-1.6649) (-10.251;-9.9461)
2.45E-13
(0.0058) (-10.2281;-9.9605)
-8.04E-10
(-1.5607) (-10.2682;-10.1808)
1.68E-08
(2.5721) (-10.254;-10.0631)
Tabla 20 Grado del polinomio de tendencia TR500
Fuente: Cálculos del Autor.
Se puede observar como es el cuarto grado del polinomio el que parece ser mayormente
apropiado para la tendencia de la serie TR500 puesto que su su coeficiente es
significativo determinado por el valor de estadístico t. Por lo que se estima la regresión
(D8) para un n igual a 4 y se guardan los residuos de dicha regresión. Estos
representan ahora la serie sin tendencia determinística y a la cual se le deberá ajustar un
modelo, la nueva serie fue renombrada como TR500dt. Estos resultados se pueden
evidenciar claramente en la siguiente gráfica.
Gráfica 1 Detrending TR500
Fuente: Realizado por el Autor.
Este mismo proceso de regresión iterativa hacia atrás con un n inicialmente grande de
grado siete se realizó para la serie LR3000, a la cual se llegó a obtener un polinomio de
grado 3 con significativo al 10% y con los menores criterios de
información. Se guardaron los residuos de dicha regresión y se procedió a usar estos
como la nueva serie de LR3000 sin tendencia determinística. A esta nueva serie se le dio
el nombre de LR3000dt.
-0,005
0
0,005
0,01
0,015
1 4 7 10 13 16 19 22 25 28 31 34 37 40 43 46 49
TR500
TR500_Aj
Residuos
59
Gráfica 2 Detrending LR3000
Fuente: Realizado por el Autor.
Observe como, tanto en la Gráfica 1 como en la Gráfica 2 una vez sustraído el
componente de tendencia determinística de las series se obtiene una serie rescaldada
con media cero y sin tendencia. Esto es importante, puesto que como lo expone Enders
(1948) hay una gran diferencia entre una serie con tendencia a una serie estacionaria. En
general, choques a series que son débilmente estacionarias producen efectos temporales
ya que se regresará al valor medio de largo plazo eventualmente. Sin embargo, choques
a series que contienen tendencia no implica convergencia de nuevo a una media de largo
plazo. Por ello fue necesario realizar el proceso de sustracción de la tendencia por medio
de la regresión (D10) y no diferenciándola debido a que la serie no presentó raíz unitaria y
por tanto el componente de tendencia estocástico no existe.
Al dirigirse a el Anexo 10.9.3. Resultados identificación series restantes observe que
sucede un hecho con estas dos series que las hace interesantes en su interpretación.
Ambas series, TR500 y LR3000, mostraron un comportamiento de la ACF que parece ser
no estacionario debido a la forma lenta de su caída (relativo al tamaño de la muestra),
siendo ésta más evidente en la primera que en la segunda. Sin embargo, las pruebas de
la presencia de raíz unitaria de Dickey y Fuller (1979) arrojaron que no lo son; es decir,
son series estacionarias. Las pruebas de ruido para ambas series mostraron un rechazo
enfático (al 1% de significancia) de dicha condición, por lo que es posible ajustar un
modelo lineal ARMA para ambas series.
Sin embargo, dado el procedimiento y la explicación anterior, fue necesario la sustracción
de la tendencia determinística, significativa en la prueba ADF para el modelo esto
indicaría que en la práctica se debe ajustar un modelo a las series TR500dt y LR3000dt y
no a las mencionadas anteriormente. La complejidad de este tema radica en que cuando
observamos los correlogramas de ambas series sin tendencia, estas series presentan la
característica típica de una serie de ruido la cual no puede ser pronosticada de su propio
pasado, al menos de manera lineal.
7
7,5
8
8,5
9
LR3000
LR3000_Aj
-1
0
1
Residuos
60
Para mitigar este inconveniente se procedió de la siguiente manera: (i) se identificaron
varios modelos tentativos ARMA para cada una de las series con tendencia; es decir,
TR500 y LR3000. (ii) Para la etapa de estimación y diagnóstico que se verá más adelante,
se les incluyó la tendencia determinística determinada por la regresión (D10) y se
encontró el mejor modelo que se ajuste a los datos con dichas condiciones. (iii) Este
mejor modelo, para cada una de las dos series, se pronosticó teniendo en cuenta dicha
tendencia, y (iv) se procedió a realizar el esquema rolling para evaluar su capacidad
predicativa en un horizonte de planeación. Esto se explicará con más detalle en la sección
dedicada a la etapa de pronóstico en este mismo capítulo.
Se realizó entonces el mismo procedimiento de identificación que se desarrolló para las
demás series de tiempo, este proceso se puede encontrar en el mismo Anexo 10.9.3
Resultados Identificación Series Restantes donde se identificaron las series R250 y
R1500.
A continuación se resume todos los modelos identificados para cada una de las series
acorde a los presentado en los Anexos 10.6.10 y 10.9.3.
Modelos Tentativo
R250 R500 R1000 R1500 R3000
M1 ARMA(1,0) ARMA(1,0) ARMA(1,0) ARMA(0,1) ARMA([1 4],1)
M2 ARMA(0,1) ARMA([1 3],0) ARMA(2,0) ARMA(0,[1 8]) ARMA(5,1)
M3 ARMA(6,0) ARMA(2,1) ARMA(2,1) ARMA(1,2) ARMA(6,1)
M4 ARMA(1,7) ARMA(1,2) ARMA(1,5) ARMA(7,1) ARMA(4,0)
M5 ARMA(1,2) ARMA(3,0) ARMA(6,1) ARMA(8,0) ARMA(5,0)
M6 ARMA(0,6) ARMA(3,1) ARMA(0,8) ARMA(3,3)
M7 ARMA(2,2) ARMA(1,4) ARMA(1,1) ARMA(4,4)
M8 ARMA(6,0) ARMA(1,5) ARMA(3,1) ARMA(1,3)
M9 ARMA(7,0) ARMA(6,3) ARMA(1,1)
M10 ARMA(1,2) ARMA(1,2)
M11 ARMA(1,1)
Tabla 21 Resumen Modelos Tentativos (1:50) Fuente: Realizado por el Autor.
Debido a que las tres etapas siguientes se realizaron por medio de la estimación de varios
modelos tentativos descritos en la etapa previa de identificación, además de la búsqueda
del modelo que cumpliera con los supuestos descritos en la etapa de diagnóstico, será
necesario entonces explicar primero la teoría detrás de las primeras dos etapas
(Estimación y Diagnóstico) y luego realizar la explicación y descripción de la etapa de
pronóstico para la evaluación fuera muestra bajo el esquema rolling.
4.4.3 Etapa de Estimación
Una vez identificados los modelos plausibles que se ajusten a las cinco series, o lo que es
lo mismo habiendo encontrado los órdenes p, q y el orden de integración de las series se
procede con la estimación de los parámetros y del modelo (D0), a recordar
61
el cual se espera sea una buena representación de cada una de las series de interés
.
La estimación del modelo ARIMA tentativo se puede realizar por varios métodos. Algunos
de estos son: Mínimos Cuadrados Incondicionales (ULS), Mínimos Cuadrados
Condicionales (CLS) o Máxima verosimilitud (ML). Este último será el método utilizado en
este trabajo y su explicación se puede encontrar en Anexo.10.6.11. Método de Máxima
Verosimilitud (ML).
4.4.4 Etapa de Diagnóstico
Debido al hecho que el modelo presentado aquí es simplemente una representación
aproximada y simplificada del verdadero mecanismo generador de datos que suscribe a la
serie en cuestión, es necesario la verificación de ciertos supuestos de la metodología para
que al final se filtre el modelo que presente la menor cantidad de fallas. Como lo dijeron
alguna vez George Box y Norman Draper en su libro Empirical Model-Building and
Response Surfaces “Esencialmente todos los modelos están mal, pero algunos son
útiles”19.
Los mecanismos esenciales de verificación de supuestos radican en el tratamiento
adecuado de los residuos que acompañan al modelo. El análisis de residuos es la forma
más simple de detectar la violación de supuestos. Esto en parte, debido al hecho que el
residuo, aquí denotado como , es la parte del sistema que no puede ser explicada por el
modelo, es el motor del sistema y mediante la cual el sistema pasa de ser estático a
dinámico.
El papel que desempeñan los residuos es vital para el adecuado pronóstico de una serie
de tiempo. Los residuos son el puente que comunica la realidad con el modelo puesto que
son la diferencia entre los valores observados y su estimado por el modelo, así
donde simboliza el valor ajustado del modelo y el cual a sufrido un proceso de análisis
de transformación de varianza y nivel como se vio anteriormente. El proceso generador
que rige a la serie de ruidos debe cumplir algunos supuestos para que el modelo sea el
adecuado. Por tanto, la verificación de estos supuestos es esencial para poder corregirse
o cambiar el modelo. Los cinco supuestos sobre el los residuos son:
Supuesto 1. tiene media cero.
Supuesto 2. tiene varianza constante.
Supuesto 3. es un proceso de ruido blanco.
19 Véase: Box, George E. P. y Norman R. Draper (1987). Empirical Model-Building and Response
Surfaces, p. 424, Wiley. ISBN 0-471-81033-9.
62
Supuesto 4. se distribuye normal, para todo t.
Supuesto 5. No existen observaciones aberrantes, atípicas o Outliers (observaciones ajenas a la serie de estudio).
Cada una de estos supuestos sobre los residuos tienen una verificación y posible
corrección. Más adelante se hará énfasis sobre este punto.
Existen otros tres supuestos fundamentales que se deben cumplir para que el modelo sea
el adecuado, y estos no tienen que ver con la verificación sobre sus residuos. A
continuación se enumeran:
Supuesto 6. El modelo debe ser parsimonioso.
Supuesto 7. El modelo debe ser admisible
Supuesto 8. El modelo debe ser estable en los parámetros.
Teniendo claro la estructura general para el diagnóstico del modelo estimado, se
pretenderá ahora profundizar en cada uno de estos supuestos, con el objetivo de
entender que nos quiere decir cada uno, como se puede verificar, que pruebas
estadísticas utilizar, y como corregirlo si es el caso (véase Guerrero (2003)). Una vez
más, debido a que el propósito del documento base es mostrar los resultados de cada
uno de los procesos aquí desarrollados, y no extenderse en teoría o procedimientos, el
Anexo 10.6.12. Teoría Sobre Diagnósticos del Modelamiento ARIMA presenta
detalladamente esta profundización sobre la teoría detrás de cada uno de los supuestos.
Aplicación práctica – Mejores modelos ARIMA encontrados
Teniendo en cuenta la etapa de identificación y diagnóstico, se procedió a buscar y
estimar aquellos modelos para cada una de las series se ajusten de manera adecuada.
Estos se obtuvieron estimando y reestimando varios modelos varias veces hasta que se
encontró el modelo que mejor desempeño tenia, teniendo en cuenta la teoría presentada
anteriormente en la etapa de la identificación bajo las técnicas ACF, PACF, SCAN,
ESACF, MINIC y la función programada en MATLAB ARI MAI N.
Cabe anotar aquí que los modelos presentados en esta sección corresponden a aquellos
modelos que, dentro de toda las observaciones, fueron meritorios de ser escogidos como
mejores modelos. Es decir, a diferencia de la evaluación fuera de muestra que se
presentará más adelante bajo el esquema rolling el cual se estima iteradamente para
diferentes tamaños de la muestra, en este paso si se está contemplando la muestra en su
totalidad.
Como se ha venido desarrollando a lo largo de este documento, se procederá a
ejemplificar detalladamente la serie LR1000 como se ha venido trabajando hasta ahora.
Esta ejemplificación se puede encontrar en el Anexo 10.6.13. Estimación-Diagnóstico
Serie LR1000.
63
Cabe anotar que se hizo uso del test estadístico de contraste de normalidad propuesto
por Shapiro y Wilk (1965) puesto que se considera un test con mayor potencia para
muestras pequeñas ( ). Este test usa el estadístico
∑
∑
donde son valores dados por los autores y para valores pares de o
para valores impares de . El cual será contrastado con valores críticos
proporcionados por tablas elaboradas por los autores para el tamaño muestral y el valor
de significancia dado. Además se dice que se rechaza la hipótesis nula de normalidad si
el estadístico es menor que el correspondiente valor crítico.
El Anexo 10.7.5 Diagnostico Normalidad y Media Cero con ASTEX muestra cómo fue
posible obtener los diagnósticos de normalidad con el test Shapiro Wilk y de media cero
acorde a la metodología propuesta en Guerrero (2003) por medio del complemento
ASTEX en Excel. Además se presenta cómo es posible obtener la gráfica Quantile-
Quantile o QQ plot para tener un veredicto adicional a la hora de decidir que la serie de
residuos se distribuye normalmente. Todo esto por medio de un ejemplo aplicado a la
serie LR1000.
En el Anexo 10.9.4 Resultados Estimación-Diagnóstico Series Restantes se presentan los
modelos escogidos para las series restantes. Su escogencia se basó en la misma lógica
de razonamiento presentado para la serie LR1000 anteriormente, la cual busca el ajuste
del mejor modelo lineal ARIMA para cada una de ellas en el trasfondo del supuesto
fundamental de parsimonia. Este anexo muestra las estimaciones de los diferentes
modelos preliminares y reestimaciones de cada una de las series con el objetivo de hacer
clara la idea de la escogencia del mejor modelo acorde a todas las características
presentadas hasta ahora y mostrar objetivamente el porqué de la escogencia de las series
que se utilizaron para el pronóstico.
A continuación se resume cada uno de los modelos escogidos para cada una de las
series de tiempo acorde a lo presentado en los anexos 10.6.13 y 10.9.4.
Serie Modelo
R250 ARIMA([1],1,[2 3 7])
R500
R1000 ARMA([1],[5])
R1500 ARI([1 2 3 4 8],1)
R3000 ARMA([1 4],[1]) + [
Tabla 22 Modelos Escogidos Fuente: Realizado por el Autor.
64
4.4.5 Etapa de Pronóstico
4.4.5.1 Evaluación dentro de la muestra
Una vez estimados y diagnosticados los modelos que mejor se ajustan a cada una de las
series, se procedió a realizar su evaluación dentro de muestra. Cabe anotar que, para
realizar la evaluación tanto dentro de muestra como por fuera de ella, cada una de las
variables tuvieron que ser transformada por medio de la función inversa a la función de
transformación de varianza que las acompaño a lo largo de las etapas, esto, para llegar a
obtener las unidades originales del pronóstico. Es decir que para todas las series excepto
para TR500, al valor pronosticado se le tomó la función exponencial para regresar a la
forma original, mientras que para la serie TR500 se tomó la función .
Además resulta necesario regresar a la serie original después de la diferenciación
realizada a las series DLR250 y DLR1500, por lo que se deben seguir los pasos
presentados a continuación para obtener la serie
1. Como la serie se encuentra en la primera diferencia del logaritmo natural, y se
sabe que la serie diferenciada corresponde a la serie en el momento t menos la
serie en el momento t-1, es decir , entonces se obtiene
el logaritmo natural de como .
2. Se procede tomando la función inversa del logaritmo, la cual corresponde al
función exponencial, para llegar a obtener la serie original . Es decir que
Ahora bien, se consideraron tres funciones de pérdida del error de pronóstico para validar
su precisión. Estas medidas fueron el error medio absoluto MAE, el error medio absoluto
en porcentaje MAPE y la raíz cuadrada del error cuadrático medio RMSE. La explicación
formal de cada una de estas funciones de pérdida se desarrolló en al inicio del presente
capítulo.
A continuación se presentan los resultados de la evaluación dentro de muestra para cada
una de las series de tiempo, en concordancia a los modelos encontrados a lo largo de
toda esta sección.
Resultados de la evaluación dentro de la muestra
Bajo el modelaje ARIMA(p,d,q)
Serie Modelo MAE MAPE RMSE
R250 ARIMA([1],1,[2 3 7]) 6328.35 40.130 10393.85
R500
8355.03 29.916 14375.12
R1000 ARMA([1],[5]) 3723.34 30.401 5222.07
R1500 ARI([1 2 3 4 8],1) 420.021 17.611 584.683
R3000 ARMA([1 4],[1]) + [ 420.88 15.549 600.321
Tabla 23 Evaluación dentro de muestra ARIMA
65
El Anexo 10.6.14 Valor Real Vs Ajuste del Modelo presenta visualmente el
comportamiento de ajuste de cada uno de los modelos frente a la serie real.
4.4.5.2 Evaluación fuera de la muestra
La evaluación fuera de muestra es un aspecto vital en el desarrollo de un buen modelo de
pronóstico ya que en la práctica, la mayoría de veces, los modelos que mejor se ajustan
dentro de muestra no necesariamente lo hacen fuera de ella. Es necesario acudir a la
búsqueda de un modelo que permita pronosticar de manera eficiente fuera de la muestra
para que sus resultados sean mucho más confiables para el plan de producción.
Es aquí donde entra a jugar un papel primordial la metodología rolling para la evaluación
de pronóstico de series de tiempo. Para ello, se desarrolló una función en MATLAB que
permite realizar el esquema rolling por medio de la incorporación de los diferentes
vectores autoregresivos y de media móvil en cada una de las etapas de estimación,
además de arrojar varias condiciones importantes vistas previamente en la teoría sobre el
diagnóstico del modelo.
Para la realización del esquema se hizo uso de la función de pérdida asimétrica tipo
LINLIN cuyos parámetros fueron calculados como la ponderación del costo de ruptura y el
costo de almacenamiento en la suma de los costos, considerando el dominio donde se
debe encontrar cada uno. Es decir
Donde está asociado a puesto que el costo de ruptura se da cuando hay un faltante
en la demanda que la producción no pudo satisfacer y por tanto el error tomaría valores
positivos, es decir en bajo la función LINLIN. Mientras que está asociado a
puesto que el costo de almacenamiento se da cuando hay un exceso en la producción y
es necesario el almacenamiento del producto terminado, es decir, cuando el error de
pronóstico se encuentra en su dominio negativo. Esto dio como resultados los siguientes
valores
Serie
R250 0.902 0.098 R500 0.905 0.096 R1000 0.898 0.102 R1500 0.915 0.085 R3000 0.910 0.090
Tabla 24 Coeficientes de LINLIN
Fuente: Realizado por el Autor.
Nótese que debido a la caracterización de los costos unitarios, el valor de la función de
pérdida dado por la ecuación (C4) tendrá una pendiente mucho más inclinada en la
derecha que en la izquierda puesto que un error positivo trae un costo mayor para la
organización que un error negativo cuyo peso no es tan significativo. En resumen, dejar
66
de vender un producto es más costoso para la empresa que almacenar el producto
faltante.
El Anexo 10.6.15. Esquema Rolling y Algoritmo en MATLAB presenta qué es y cómo se
realizó el esquema con el propósito de la evaluación fuera de muestra para la próxima
comparación con otros modelos de series de tiempo completamente automáticos.
Adicionalmente se presenta la descripción y explicación del algoritmo creado a través de
una función en MATLAB por medio de la ejemplificación de la serie LR1000.
Al correr al algoritmo se obtuvieron los siguientes resultados para el esquema Rolling de
la serie LR1000
Observe como la primera fila hace referencia a los resultados del pronóstico fuera de
muestra desde el período 40 (abril 2013) hasta el período 45 (septiembre 2013) bajo el
mejor modelo de ajuste hasta el conjunto de información disponible en el período 39
(marzo 2013). Una vez incluida la observación 40 (abril 2013) se reestima de nuevo el
modelo y se pronostica 6 periodos adelante, los cuales están registrados en la segunda
fila de la tabla, así continua el proceso hasta la inclusión de la observación 44 (agosto
2013) en la cual se pronosticó el modelo ARMA([1],[5]) 6 periodos adelante y se registró
en la fila 6 de la tabla.
Las mediadas de error de pronóstico se obtienen entonces desde la 4ª hasta la 9ª
columna20 las cuales representan cada uno de los horizontes del esquema. Note que
tanto las medidas simétricas de error de pronóstico, como la asimétrica LINLIN son
crecientes en los horizontes, lo que es completamente sensato si se piensa que entre más
lejano sea el horizonte de planeación mayor será la acumulación de errores en cada uno
de los horizontes. Es decir, es mucho más incierto pronosticar a períodos más lejanos que
a períodos más cercanos. Sin embargo, aunque estas medidas son crecientes no
20 No se deben obtener de cada fila puesto que no tendría sentido alguno para identificar como
está estimando el modelo en cada horizonte.
ROLLING R1000 Períodos ( )
Modelo 1 2 3 4 5 6
1 39 40 45 13989.17 11995.14 14020.30 17058.73 15052.77 13418.34 2 40 41 46 13253.81 14982.65 18229.38 15713.29 14791.21 13451.29 3 41 42 47 15473.16 18496.82 15851.93 14878.64 13830.81 13030.51 4 42 43 48 26045.60 19458.91 16848.84 15102.16 16625.72 14674.88 5 43 44 49 17128.56 15628.82 14318.61 15825.07 13530.75 13036.41 6 44 45 50 17166.10 15113.59 16363.00 13795.72 14147.87 13423.86 Medidas Simétricas
MAE: 7766.05 8243.10 8852.68 11898.35 11927.03 12288.46
RMSE: 5971.30 5971.51 7674.82 9878.40 9536.77 9505.12 MAPE: 24.07 23.74 30.62 35.38 34.05 33.67
Medidas Asimétricas
Granger(1969)-LINLIN: 5363.72 5363.91 6893.91 8873.27 8566.40 8537.97 Tabla 25 Esquema Rolling LR1000
Fuente: Cálculos del Autor.
67
parecen crecer desmesuradamente, lo cual da indicios que es posible realizar un
pronóstico hasta dicho horizonte de tiempo.
Ante la necesidad de validar algunos supuestos de los modelos para cada una de las 6
estimaciones en el esquema entra a jugar un papel importante la opción
opt i ons . Di agnos =' on' la cual presenta las propiedades del término de perturbación
para cada una de las estimaciones tanto gráficamente como con la ayuda de test
estadísticos al final de la salida. Estas se presentan en el Anexo 10.9.5. Resultados
Diagnóstico Rolling con Rolling2.m. Cabe anotar que las condiciones de parsimonia y
significancia de los parámetros fueron revisadas también para cada estimación.
A manera de ejemplo en el anexo se encuentra como seria la interpretación a la salida del
diagnóstico arrojado por el algoritmo para la primera estimación del método rolling de la
serie LR1000
Este mismo análisis se realizó para los demás modelos dentro de la estimación del
método rolling. Considerando además que se presentaron los mismos resultados de
decisión sobre el diagnóstico del término de perturbación para las restantes estimaciones.
Teniendo claro la estructura del esquema, se procede entonces a mostrar los resultados
de las demás series de tiempo, las cuales siguen exactamente la misma lógica que se
siguió en el modelo presentado anteriormente para la serie R1000. Si se presentaba el
caso de alguna violación relevante en alguno de los supuestos, se procedió entonces a su
reestimación o replanteamiento de la transformación para reestimar de nuevo el algoritmo
de manera que se satisfagan las condiciones dadas para realizar el rolling. Todas las
salidas del diagnóstico arrojadas por el algoritmo Rolling2 para las demás series de
tiempo se presentan en mismo el Anexo en 10.9.5 al final de este documento. A
continuación se muestran los resultados del esquema rolling para las cuatro series
restantes.
Tabla 26 Esquema Rolling R250
Fuente: Cálculos del Autor.
ROLLING R250 Períodos ( )
Modelo 1 2 3 4 5 6
1 34 35 40 31110.42 21255.79 28176 26035.18 28985.29 29155.87 2 35 36 41 31450.62 43658.36 42075.56 47198.02 48537.92 51753.32 3 36 37 42 39390.55 24391.22 48674.78 31494.59 61707.53 41624.04 4 37 38 43 39332.46 52526.08 52222.2 58536.51 60652.96 65244.59 5 38 39 44 67345.59 43036.55 63322.75 43853.84 71276.63 55723.11 6 39 40 45 43284.66 63727.54 44050.06 71661.06 55997.8 84992.83 Medidas Simétricas
MAE: 12895.98 14926.44 13991.52 18767.15 20895.21 18848.38
RMSE: 9632.16 12498.85 12184.88 14574.66 17764.95 13427.13 MAPE: 24.12 23.64 21.82 24.81 32.65 24.29
Medidas Asimétricas
Granger(1969)-LINLIN: 8686.53 11271.80 10988.65 13143.81 16020.90 12108.94
68
Tabla 27 Esquema Rolling R500
Fuente: Cálculos del Autor.
A continuación se procederá a realizar la metodología comparativa de pronósticos
automáticos para escoger así el mejor modelo que se ajuste a los datos de estudio,
ROLLING R500 Períodos ( )
Modelo 1 2 3 4 5 6
1 39 40 45 41889.18 43366.87 40239.40 41436.18 38891.69 39870.57 2 40 41 46 43798.38 47586.78 42565.14 45681.21 41538.12 44121.02 3 41 42 47 47217.06 40679.68 44996.54 39631.23 43193.90 38753.80 4 42 43 48 49245.89 39942.77 46317.38 46522.88 39078.94 44221.31 5 43 44 49 32148.29 41364.33 56403.60 28470.98 33659.25 40076.48 6 44 45 50 42209.15 57912.29 42197.98 34288.77 40849.26 34283.58 Medidas Simétricas
MAE: 32597.28 32296.44 32920.73 32054.31 16341.08 12869.92
RMSE: 25980.13 21177.60 23893.66 22903.78 15535.12 10255.67 MAPE: 34.07 26.37 47.40 37.48 42.55 32.83
Medidas Asimétricas
Granger(1969)-LINLIN: 23498.92 19155.05 21611.71 20716.38 14051.45 9276.21
ROLLING R1500 Períodos ( )
Modelo 1 2 3 4 5 6
1 39 40 45 2208.41 2183.13 2430.08 2430.15 2598.71 2615.79 2 40 41 46 2513.65 2652.67 2718.86 2793.09 2868.84 2946.67 3 41 42 47 2098.46 2121.63 2549.12 2252.06 2279.59 2314.86 4 42 43 48 2513.10 2542.57 2593.41 2626.93 2676.75 2713.70 5 43 44 49 2521.84 2572.95 2604.85 2654.63 2690.14 2739.28 6 44 45 50 2429.62 2406.99 2336.48 2317.62 2274.89 2268.43 Medidas Simétricas
MAE: 568.10 407.61 319.31 1134.08 979.77 979.77
RMSE: 400.50 281.80 224.00 662.80 599.61 599.61 MAPE: 15.17 13.98 11.20 17.99 16.80 16.80
Medidas Asimétricas
Granger(1969)-LINLIN: 366.27 257.71 204.85 606.14 548.35 548.35
Tabla 28 Esquema Rolling R1500
Fuente: Cálculos del Autor.
ROLLING R3000 Períodos ( )
Modelo 1 2 3 4 5 6
1 39 40 45 3540.17 2792.44 3293.22 3433.04 3652.50 2927.83 2 40 41 46 2808.25 3022.50 3198.15 4127.34 2729.31 2862.27 3 41 42 47 3047.08 3197.63 4121.83 2845.85 2878.24 2969.03 4 42 43 48 3275.31 4306.96 2888.44 2688.36 3074.33 3718.27 5 43 44 49 4148.55 2840.58 2658.45 3069.06 3501.19 2746.38 6 44 45 50 2622.23 2492.86 2651.17 2726.87 2474.45 2474.45 Medidas Simétricas
MAE: 760.47 194.14 290.13 1325.36 1094.25 1030.67
RMSE: 464.28 174.33 220.68 619.07 749.34 642.34 MAPE: 11.31 5.68 7.75 11.83 21.56 20.71
Medidas Asimétricas
Granger(1969)-LINLIN: 422.72 158.72 200.93 563.65 682.26 584.84
Tabla 29 Esquema Rolling R3000
Fuente: Cálculos del Autor.
69
realizar su análisis y pronóstico correspondiente y poder utilizarlos como insumo en la
planeación de la producción para el capítulo siguiente.
4.5 Metodología comparativas
El desarrollo de la metodología comparativa se realizó por medio de la obtención de
pronósticos automáticos que a través del software SPSS permiten simplemente con la
serie original (o transformada), obtener el modelo de ajuste entre varios métodos posibles,
intentando minimizar las funciones de pérdida de error de pronóstico. Para este caso
específico, la comparación de los resultados ARIMA con otras metodologías de pronóstico
se desarrolló a través de la serie original la cual se realizó simplemente solicitándole a
SPSS que buscara de forma automática el mejor modelo que se ajustara a dichos datos.
La metodología fue desarrollada tanto por dentro de muestra como por fuera de ella,
donde se utilizaron los mismos horizontes previamente establecidos bajo el modelo
ARIMA. Esto con el propósito de adoptar una estructura comparativa que permita analizar
la eficiencia del pronóstico ARIMA en las condiciones predichas, frente a metodologías
semiautomáticas que fácilmente pueden ser aplicadas sin conocimiento profundo en
series de tiempo. Cabe anotar que las medidas de error de pronóstico tanto simétricas
como asimétricas aquí estudiadas deben ser las mismas que las trabajadas en la
evaluación del modelo ARIMA, de lo contrario no tendría sentido alguno su comparación.
Estas medidas del error de pronóstico fueron obtenidas, una vez más, a través de la
opción “Diagnóstico de pronóstico” en el aplicati o ASTEX por lo que la metodología de
obtención teórica es la misma que la realizada para el modelo ARIMA.
Los resultados de los pronósticos dentro de muestra para cada una de las cinco series de
tiempo fueron los siguientes.
Resultados de la evaluación dentro de la muestra
Generación automática de pronóstico
Serie Modelo MAE MAPE RMSE
R250 Aditivo Winters 7552.39 106.57 9258.06
R500 Estacional Simple 9146.29 31.38 16845
R1000 Estacional Simple 3827.34 32.33 5972.41
R1500 Aditivo Winters 426.10 20.10 562.62
R3000 Aditivo Winters 509.64 20.78 667.10
Tabla 30 Resultados evaluación dentro de muestra - Método Comparativo
Fuente: Cálculos del Autor.
Como se observa, fueron dos los tipos de metodologías de series de tiempo que permiten
modelar las cinco variables. El método Aditivo de Winters y el método Estacional Simple.
Donde el ajuste y el comportamiento de los residuales de cada modelo en representación
gráfica se presentan en el Anexo 10.12.1. Ajuste modelos comparativos.
Note comparando con la Tabla 23. Evaluación dentro de muestra ARIMA, que por medio
del modelamiento ARIMA fue posible obtener los resultados esperados sobre la eficiencia
70
de estos para ajustarse mejor a una serie de tiempo. En total, entre todos los modelos y
todas las medidas de error, fue posible conseguir una eficiencia del 86.7% del modelo
ARIMA frente a los modelos comparativos. Es decir que el 86.7% de las veces (contadas
como 15 medidas de error (5 modelos x 3 medidas cada uno)) fue mejor el modelo
propuesto ARIMA frente al modelo comparativo. Con excepción de las series R250 y
R1500 cuyo porcentaje de efectividad del modelo ARIMA fue cercano al 70%, las demás
series obtuvieron una eficiencia del 100% frente al modelo comparativo. Lo que quiere
decir que todas las tres medidas de error fueron más pequeñas bajo la metodología de
análisis Box-Jenkins.
Teniendo en cuenta además que la teoría sobre pronósticos evidencia la necesidad de
pronosticar con el mejor modelo que se ajuste hasta el período de tiempo t (marzo 2013
en este caso) se deberá por tanto escoger el modelaje ARIMA para la realización del
pronóstico hasta h periodos adelante, puesto que éste tuvo un mejor desempeño
comparado con las metodologías automáticas.
De nuevo, debido a que la idea principal de este capítulo es el desarrollo de un pronóstico
adecuado y en muchas ocasiones un modelo que se ajusta bien a los datos dentro de
muestra no siempre lo hace fuera de ella, se procede a mostrar los resultados de la
evaluación fuera de muestra por medio del esquema rolling que permite comparar
horizonte a horizonte el comportamiento de la metodología automática de SPSS con el
modelo propuesto ARIMA.
Resultados evaluación por fuera de muestra (Rolling)
Comparación pronósticos automáticos y ARIMA
Serie: R250 Automático ARIMA
Horizonte Periodo RMSE MAE MAPE LINLIN RMSE MAE MAPE LINLIN
1 ABR2013-SEP2013 17225.9 14788.3 32.9 13336.5 12896.0 9632.2 24.1 8686.5 2 MAY2013-OCT2013 19002.5 15548.7 31.7 14022.2 14926.4 12498.9 23.6 11271.8 3 JUN2013-NOV2013 20081.5 14572.8 23.6 13142.2 13991.5 12184.9 21.8 10988.7 4 JUL2013-DIC2013 19893.8 14446.5 22.2 13028.3 18767.2 14574.7 24.8 13143.8 5 AGO2013-ENE2014 22065.7 20378.6 36.2 18377.9 20895.2 17765.0 32.7 16020.9 6 SEP2013-FEB2014 18043.7 13760.1 22.7 12409.2 18848.4 13427.1 24.3 12108.9
Tabla 31 Resultados evaluación fuera de muestra R250 - Método Comparativo
Fuente: Cálculos del Autor.
Resultados evaluación por fuera de muestra (Rolling)
Comparación pronósticos automáticos y ARIMA
Serie: R500 Automático ARIMA
Horizonte Periodo RMSE MAE MAPE LINLIN RMSE MAE MAPE LINLIN
1 ABR2013-SEP2013 26692.1 20820.2 29.2 18831.8 32597.3 25980.1 34.1 23498.9 2 MAY2013-OCT2013 24286.1 17689.5 24.4 16000.1 32296.4 21177.6 26.4 19155.1 3 JUN2013-NOV2013 29237.2 23088.2 62.7 20883.2 32920.7 23893.7 47.4 21611.7 4 JUL2013-DIC2013 35832.7 26929.7 83.8 24357.8 32054.3 22903.8 37.5 20716.4 5 AGO2013-ENE2014 26348.9 21081.8 68.1 19068.4 16341.1 15535.1 42.6 14051.5 6 SEP2013-FEB2014 30717.0 25105.5 81.5 22707.9 12869.9 10255.7 32.8 9276.2
Tabla 32 Resultados evaluación fuera de muestra R500 - Método Comparativo
Fuente: Cálculos del Autor.
71
Resultados evaluación por fuera de muestra (Rolling)
Comparación pronósticos automáticos y ARIMA
Serie: R1000 Automático ARIMA
Horizonte Periodo RMSE MAE MAPE LINLIN RMSE MAE MAPE LINLIN
1 ABR2013-SEP2013 9485.2 7012.6 28.9 6299.1 7766.0 5971.3 24.1 5363.7 2 MAY2013-OCT2013 8856.7 7462.9 31.9 6703.6 8243.1 5971.5 23.7 5363.9 3 JUN2013-NOV2013 9748.5 7844.4 30.7 7046.3 8852.7 7674.8 30.6 6893.9 4 JUL2013-DIC2013 12667.7 9709.8 33.4 8721.8 11898.3 9878.4 35.4 8873.3 5 AGO2013-ENE2014 11833.1 9316.4 33.4 8368.4 11927.0 9536.8 34.0 8566.4 6 SEP2013-FEB2014 13062.6 10815.2 41.8 9714.7 12288.5 9505.1 33.7 8538.0
Tabla 33 Resultados evaluación fuera de muestra R1000 - Método Comparativo
Fuente: Cálculos del Autor.
Resultados evaluación por fuera de muestra (Rolling)
Comparación pronósticos automáticos y ARIMA
Serie: R1500 Automático ARIMA
Horizonte Periodo RMSE MAE MAPE LINLIN RMSE MAE MAPE LINLIN
1 ABR2013-SEP2013 828.6 677.3 27.2 619.4 568.1 400.5 15.2 366.3 2 MAY2013-OCT2013 745.0 606.2 27.7 554.4 407.6 281.8 14.0 257.7 3 JUN2013-NOV2013 631.0 524.5 22.4 479.7 319.3 224.0 11.2 204.8 4 JUL2013-DIC2013 998.3 698.3 20.3 638.6 1134.1 662.8 18.0 606.1 5 AGO2013-ENE2014 956.1 641.8 18.3 587.0 979.8 599.6 16.8 548.4 6 SEP2013-FEB2014 985.7 699.1 20.9 639.4 979.8 599.6 16.8 548.4
Tabla 34 Resultados evaluación fuera de muestra R1500 - Método Comparativo
Fuente: Cálculos del Autor.
Resultados evaluación por fuera de muestra (Rolling)
Comparación pronósticos automáticos y ARIMA
Serie: R3000 Automático ARIMA
Horizonte Periodo RMSE MAE MAPE LINLIN RMSE MAE MAPE LINLIN
1 ABR2013-SEP2013 1011.5 878.4 24.7 799.7 760.5 464.3 11.3 422.7 2 MAY2013-OCT2013 868.7 753.3 26.0 685.9 194.1 174.3 5.7 158.7 3 JUN2013-NOV2013 888.1 802.6 27.6 730.7 290.1 220.7 7.7 200.9 4 JUL2013-DIC2013 981.0 861.5 24.8 784.4 1325.4 619.1 11.8 563.6 5 AGO2013-ENE2014 1229.3 1091.2 41.6 993.5 1094.2 749.3 21.6 682.3 6 SEP2013-FEB2014 1418.4 1325.6 52.7 1207.0 1030.7 642.3 20.7 584.8
Tabla 35 Resultados evaluación fuera de muestra R3000 - Método Comparativo
Fuente: Cálculos del Autor.
Los resultados entonces permiten concluir que por medio de las funciones de pérdida
simétricas y asimétricas, el análisis adecuado de la serie de tiempo por medio de un
modelo lineal ARIMA tiene una mejorar considerablemente la capacidad del pronóstico
respecto a los modelos automáticos cuyo análisis es prácticamente cero y por tanto
presenta resultados desconfiables. Este conclusión puede verse más claramente por
medio del porcentaje de efectividad total del modelaje ARIMA de cada una de las series
frente a la metodología automática, estos resultados se presentan a continuación
72
Resultados de la evaluación dentro de la muestra
% Efectividad Por Medida de Error
Serie % Efectividad Total MAE MAPE RMSE LINLIN
R250 79.2% 83.3% 83.3% 66.7% 83.3%
R500 54.2% 50.0% 50.0% 66.7% 50.0%
R1000 70.8% 83.3% 66.7% 66.7% 66.7%
R1500 91.7% 66.7% 100.0% 100.0% 100.0%
R3000 95.8% 83.3% 100.0% 100.0% 100.0%
Tabla 36 Efectividad ARIMA frente Automático
Fuente: Cálculos del Autor.
Es necesario evidenciar un aspecto relevante que se presentó en los resultados
anteriores. Debido al hecho que la serie R500 mostró claros indicios de ser una serie de
ruido blanco una vez se sustrajera la tendencia determinística y además se concluyó que
es necesario realizar el pronóstico de la tendencia para dicha serie, puesto que se hace
poco factible incorporar componentes autoregresivos o de media móvil que sean
significativos. Observe que la efectividad del método de detrending se encuentra muy
cercana al 50% frente al método comparativo. Esto se debe al hecho que el método
comparativo está realizando en sí mismo una metodología de sustracción de tendencia
para el pronóstico.
Esto llevaría a la conclusión de pensar que, cuando una serie es ruido blanco sobre una
tendencia determinística (no estocástica) ambos métodos (o cualquier método de filtrado
de componentes de tendencia y nivel) de sustracción de tendencia permiten llegar a
conseguir la misma efectividad en el pronóstico, esto a luz de las medias de error tanto
simétricos como asimétricos.
4.6 Pronóstico del Mejor Modelo
Una vez desarrollada la evaluación dentro y fuera de muestra lo único que resta es la
realización del pronóstico fuera del período de estimación del mejor modelo en cada uno
de los casos y para cada una de las series acorde al horizonte de planeación que se
utilizará en la planeación productiva de la firma.
Como se mencionó anteriormente debido a que la teoría del modelamiento ARIMA
determina que para realizar el pronóstico desde el período N+1 hasta el período N+h se
debe hacer uso del mejor modelo que ajuste a los datos basado en el conjunto de
información disponible hasta el periodo N. Es decir, los modelos que servirán para el
pronóstico definitivo serán los aquellos escogidos como mejores modelos en la etapa
previa de estimación y cuyo registro se encuentra en la Tabla 23. Evaluación dentro de
muestra ARIMA.
Acorde a todo lo estudiado en este capítulo se tiene que la matriz del nivel del pronóstico
está dada como
73
NIVEL Marzo Abril Mayo Junio Julio Agosto
R250 36837.618 61092.927 65992.114 82914.606 77794.333 92321.761
R500 30829.208 26971.608 23355.718 20049.490 17088.541 14482.041
R1000 13196.851 14428.579 17070.439 12797.259 12315.413 12749.441
R1500 3162.925 2808.459 3611.144 3097.795 2409.278 4030.850
R3000 2374.259 2814.331 1970.658 1881.219 1778.168 1752.499
Tabla 37 Pronósticos ARIMA todas las series
Fuente: Cálculos del Autor.
En el Anexo 10.9.6. Pronósticos de los Mejores Modelos se presenta gráficamente el
pronóstico desde el mes de marzo de 2014 hasta el mes de agosto de 2014 para cada
serie de tiempo, este pronóstico servirá de insumo para el capítulo siguiente en el
desarrollo de la programación lineal.
Es necesario entender además un aspecto relevante de todo este proceso y que no debe
ser perdido de vista. Debido a que cada una de las series que se pronosticaron
representan variables aleatorias cuyo valor ex ante es desconocido y por ello se intentó a
lo largo de todo este capítulo ajustar un modelo lineal que permitiera encontrar el
mecanismo generador de datos que subyace al proceso estocástico de cada variable, el
pronóstico de dicho modelo debe ser por tanto especificado dentro de un intervalo de
confianza que mitigar el riesgo ante la toma de decisiones organizacionales. Estos
intervalos se construyeron a partir de la dos limites a desviaciones estándar del error
del modelo, es decir [ √ ].
SUPERIOR Marzo Abril Mayo Junio Julio Agosto
R250 72881.14 122016.52 134068.78 179330.87 171464.32 212807.83
R500 759579.32 685684.51 608218.93 530853.10 456853.58 388652.04
R1000 23423.04 27166.20 32894.82 24806.18 23721.42 25039.25
R1500 4924.47 4510.99 5742.22 4858.61 3793.05 6714.99
R3000 3370.46 4320.18 3054.73 2870.16 2731.60 2701.28
Tabla 38 Pronóstico ARIMA Limite Superior
Fuente: Cálculos del Autor.
INFERIOR Marzo Abril Mayo Junio Julio Agosto
R250 794.09 169.34 0 0 0 0
R500 0 0 0 0 0 0
R1000 2970.66 1690.96 1246.06 788.34 909.41 459.63
R1500 1401.38 1105.93 1480.07 1336.98 1025.50 1346.71
R3000 1378.06 1308.49 886.59 892.28 824.74 803.72
Tabla 39 Pronóstico ARIMA Límite Inferior
Fuente: Cálculos del Autor.
Note que algunos valores debieron ser truncados a cero puesto que el presente estudio
se basa en el supuesto que la producción jamás puede tomar valores negativos.
74
4.7 Capacidad Requerida del Horizonte de Planeación
Dentro del desarrollo del plan de producción de la empresa es necesario el cálculo de la
capacidad requerida debido a que ésta es utilizada para determinar el tiempo que es
necesario en cada una de las estaciones de trabajo para la fabricación de las cantidades
pronosticadas anteriormente. Adicionalmente, se establecerá si la capacidad disponible
en un tiempo normal de trabajo para cada periodo de tiempo, como se vio en el capítulo 3,
es suficiente para lograr cubrir la capacidad requerida por la proyección de la demanda.
De ser insuficiente, es necesario el desarrollo de una estrategia que tenga como fin la
ampliación de la capacidad disponible en la planta.
En la sección 3.6 Estudio de tiempos fueron calcularon los tiempos estándar de
fabricación los cuales fueron denotados como donde el subíndice obedece a cada
una de las cinco etapas del proceso (Ver Tabla 3. Tiempos estándar de producción
unitarios). Para llegar a obtener esta capacidad requerida ( por la planta en cada una
de las etapas y para cada periodo de tiempo fue necesario multiplicar los tiempos
estándar de fabricación ( en cada etapa del proceso por la demanda pronosticada (
de cada uno de los periodos. Por lo que se tiene
Los resultados del cálculo de la capacidad requerida, en horas de producción necesarias
para satisfacer la demanda pronosticada se presentan en la siguiente tabla
2014
Estación Marzo Abril Mayo Junio Julio Agosto
Fabricación de envase 50.78 35.97 17.72 20.66 13.48 4.64 Fajillado 146.32 185.36 175.98 215.82 194.85 223.74
Mezclado 121.64 140.92 117.14 147.50 128.59 150.79 Envasado 77.27 95.32 86.10 105.77 94.60 109.67 Empacado 79.02 98.13 91.32 114.81 102.67 118.32
Tabla 40 Capacidad requerida marzo 2014 - agosto 2014 Fuente: Cálculos del Autor.
4.7.1 Capacidad Requerida Frente a Capacidad Disponible
Una vez calculada la capacidad requerida y la capacidad disponible como se realizó
previamente en la Sección 3.7. Capacidad Disponible se procede entonces a realizar el
cálculo del grado de utilización de la capacidad, esto es, el porcentaje en que la estación
de trabajo estará ocupada para satisfacer la demanda pronosticada dentro del horizonte
de planeación.
Debido a que la capacidad disponible de hombre está limitada por la capacidad máquina
se tienen entonces que el grado de utilización debe estar calculado con dicho parámetro.
La forma como se calcula dicho grado de utilización para cada una de las etapas en
cada periodo de tiempo para el recurso máquina está determinado por la siguiente
75
ecuación ⁄ . Observando esta relación se puede establecer cierta condición
sobre los resultados.
Si entonces se dice que la por lo que no es factible cumplir con
el requerimiento mensual en esa estación de trabajo con esa capacidad disponible
bajo esos tiempos estándar de producción. La corrección a este problema sería la
creación de alguna estrategia expansiva, bien sea de mejoramiento de tiempos de
producción, aumento de la capacidad disponible, decisiones gerenciales, cultura
organizacional o corrección del proceso completo con herramientas de la
ingeniería industrial.
Si , entonces , esto querría decir que el proceso puede cumplir al
límite con sus requerimientos de demanda debido a que la capacidad del sistema
es igual a la capacidad requerida bajo el pronóstico planteado. Este escenario es
riesgoso, puesto que se estaría bajo un caso de incertidumbre. En general, todos
estos modelos aquí presentados basan sus fundamentos en estadística por lo que
existe una probabilidad que dicho valor de 1 en el grado de utilización sea mayor o
menor. Se recomienda entonces que bajo este escenario se tome como decisión
la necesidad de buscar una estrategia de mejoramiento para la estación en
particular, con el objeto de ser cautelosos con los resultados del modelo.
Si , entonces y sería el escenario ideal; bajo el cual la demanda
puede ser satisfecha con esa capacidad disponible en la planta para una etapa de
trabajo en particular.
Se presentan a continuación los resultados del grado de utilización
2014
Estación Marzo Abril Mayo Junio Julio Agosto
Fabricación de envase 0.319 0.236 0.107 0.148 0.078 0.030
Fajillado 0.420 0.555 0.486 0.705 0.518 0.670
Mezclado 0.159 0.192 0.147 0.219 0.156 0.206
Envasado 0.276 0.355 0.296 0.429 0.313 0.408
Empacado 0.462 0.598 0.514 0.763 0.556 0.721
Tabla 41 Grado utilización máquina marzo 2014 - agosto 2014 Fuente: Cálculos del Autor.
Observe que para todos los períodos el grado de utilización es menor que la unidad, por
lo que es posible el cumplimiento de la demanda pronosticada en el tiempo estándar de
trabajo. Por consiguiente, no es necesario la aplicación de estrategias de ampliación de la
capacidad (como compra de nuevo capital, maquinaria, aplicación de planta u otras
estrategias) para cumplir con la demanda, puesto que el sistema actual es capaz de
satisfacerla. Es factible entonces la aplicación de un plan de producción que permita
realizar una asignación optima de recursos para el cumplimiento de dicha demanda
consiguiendo el menor costo posible. Esto se explicará en detalle en el siguiente capítulo.
76
5 PLANEACIÓN DE LA PRODUCCIÓN
Hoy en día existen varios software de diseño especial para la formulación eficiente de
modelos con un alto número de variables, parámetros, restricciones y funciones. Los
lenguajes de modelado más comúnmente utilizados debido a sus excelentes resultados
las últimas dos décadas son AMPL, MPL, GAMS y LINGO.
Para efectos de este ejercicio se hará uso del lenguaje GAMS (General Algebraic
Modeling System), el cual es un sistema de modelado de alto nivel para la programación
matemática y optimización. GAMS está adaptado para el modelaje de aplicaciones
complejas y de larga escala además de permitir la construcción de modelos que pueden
ser adaptados rápidamente a diferentes situaciones. Asimismo este lenguaje permite el
modelado de problemas de optimización lineal, entera, no lineal y mixto entre muchos
otros.
El presente capítulo tiene entonces el propósito de desarrollar un modelo cuantitativo para
la planeación de la producción con el uso de la programación lineal. Ciertamente este
capítulo recopila toda la información hasta aquí presentada, tanto del estudio de tiempos,
capacidades, recursos y costos como del mejor modelo de pronóstico el cual fue escogido
en el capítulo anterior. Se intentará abordar la evaluación de factibilidad del
abastecimiento de la demanda pronosticada bajo los lineamientos de la capacidad
disponible de la planta en un tiempo estándar de producción, así como el uso de
funciones de pérdida asimétricas en la función minimizadora que castiguen la sobre o sub
producción acorde a la demanda.
5.1 Construcción del Modelo de Programación Lineal
La construcción de la estructura que compone a la programación lineal se divide
generalmente en cinco partes: conjuntos, variables de decisión, parámetros, restricciones
y función objetivo.
Hillier y Lieberman (2010) presentan una forma estándar del modelo que agrupa estos
cinco componentes. Cualquier situación tentativa de ser modelada bajo los lineamientos
de dicha formulación matemática es vista como un problema de programación lineal. Esta
forma estándar consiste en la elección óptima de las variables de decisión
con el objetivo de maximizar o minimizar la siguiente función objetivo
sujeto a las siguientes las restricciones estructurales
77
donde para los conjuntos y representan las
constantes de entrada o parámetros. Se cuenta además con las siguientes restricciones
de no negatividad
las cuales en algunos casos pueden no ser incluidas si el modelo dice que cierta variable
no está restringida en su signo.
La construcción del modelo de programación lineal para la planeación agregada de
producción requiere tener las siguientes constantes de entrada:
i. Tiempo de producción por unidad por tipo de producto ii. Días hábiles por periodo del horizonte de planeación iii. Horas por turno en la jornada laboral iv. Número de turnos v. Número de etapas del proceso vi. Número de cada recurso (hombre y máquina) vii. Costos de fijos y variables viii. Demanda pronosticada para el horizonte de planeación
Todos estos parámetros de entrada fueron obtenidos y/o calculados a lo largo de este
trabajo y pueden ser consultados en los capítulos 3 y 4.
En general, si la función objetivo y las funciones que componen la restricción son
lineales, se tendrá entonces un problema de optimización lineal, con la siguiente forma
compacta del problema de programación
sujeto a
donde
.
: Vector de coeficientes de la función objetivo
: Matriz de restricciones de desigualdad
: Lado derecho de la desigualdad
78
: Matriz de restricciones de igualdad
: Lado derecho de la igualdad
: Limite inferior (Lower Bounds)
: Limite superior (Upper Bounds)
Se procederá entonces con el desarrollo de la estructura de programación lineal base,
ésta tiene como propósito la generalización del modelo que servirá como punto de partida
para la construcción del modelo que genere diferentes estrategias de producción, con una
característica mucho más realística y aplicada a la organización. El modelo base busca la
minimización del costo total de producción y la gestión de inventarios, cumpliendo con las
restricciones de capacidad de producción vistas en la sección 3.7 y la satisfacción de la
demanda proyectada en el capítulo 7.
5.1.1.1 Programación Lineal
Conjuntos:
: Periodo de tiempo
donde para : Horizonte de planeación
Tipo de producto
donde
Etapa del proceso productivo
donde
Para el caso particular se tiene que: meses, referencias, 3 etapas de
proceso.
Variables de decisión:
: Cantidad producida del producto tipo en el periodo : Cantidad en inventario (stock) del producto al final del periodo
Parámetros:
: Tiempo estándar de producción del producto tipo en la etapa de proceso
: Costo unitario de producción asociado al producto tipo
: Costo de ruptura nato del producto tipo
: Costo de almacenamiento del producto tipo
Precio del producto tipo : Capacidad de la etapa del proceso <Horas Hombre>
: Cantidad pronosticada del producto tipo en el período Capacidad máxima de almacenamiento en inventario de producto terminado.
79
donde representa la producción faltante o producción sobrante
.
Restricciones:
Restricción de demanda:
La interpretación práctica de esta ecuación determina que la cantidad de producto con la
que se cuenta al final del inventario en el periodo más la cantidad producida en el
periodo del mismo producto tipo menos lo que se demandó según el pronóstico del
producto tipo en el periodo debe ser igual a la cantidad que se tiene en inventario en el
periodo del producto tipo .
La segunda interpretación podría darse pensando que la cantidad de inventario con la que
se cuenta al final del periodo menos la cantidad de inventario con la que se cuenta al
final del periodo , esto es , debe ser igual a la diferencia entre lo que se
producirá y lo que se pronosticó en el periodo del producto tipo , es decir ; La cual se
podría llegar a escribir como
Es necesario mencionar que existen ciertos supuestos y lineamientos sobre esta
restricción:
i. A la luz de la programación lineal, el tratamiento que se le está dando al pronóstico
de la demanda es el de demanda real en sí, es decir que la variable aleatoria
de la serie de ventas está siendo tomada como la realización del mecanismo
generador de datos. Esto debido al hecho que la producción bajo la
programación lineal se está ajustando a dicha demanda como si esta fuera cierta y
busca una solución factible que logre satisfacer la demanda.
ii. Existe una asimetría de costos determinada por la estructura típica de un sistema
de inventarios. Por un lado, si entonces se estaría diciendo que la
diferencia en inventario entre el período de tiempo y debe ser positiva y por
tanto se asignaría un castigo (costo por la sobre-producción) por mantener ese
inventario de producto terminado en el almacén determinado por el costo de
almacenamiento ; mientras que si se obtendría que la diferencia
intertemporal entre los inventarios finales es negativa, lo cual se interpretaría como
la demanda faltante de producto terminado y se asignaría un castigo (costo por la
sub-producción) que está determinado por el costo de ruptura nato en el que
incurre la empresa por dejar de vender esa cantidad de producto.
Restricción de capacidad en inventario terminado:
∑
80
Para esta restricción se está diciendo que la suma del inventario de todos los productos
terminados en un tiempo no debe exceder nunca el inventario máximo de
almacenamiento determinado por el espacio físico de la bodega.
Restricción de capacidad de tiempo:
∑
Esta restricción dice que la suma de todos los tiempos estándares de producción de todos
los tipos de producto por la cantidad de producción de cada tipo nunca debe exceder la
capacidad del proceso para todos las etapas del mismo.
Restricciones de No-Negatividad
Tanto la cantidad en inventario como la cantidad producida jamás podrá ser negativa a lo
largo de toda la optimización.
Función Objetivo Minimizadora de Costos:
Para poder llegar a determinar la función objetivo que minimice todos los costos en los
que incurre la organización es necesario dividir esta función en dos grandes funciones. La
primera está determinada por los costos asociados al proceso productivo en sí, esta
función se denotará como , donde el parámetro puede incluir cualquier otra
variable de decisión que pueda determinar los costos para dicha función; como se verá
más adelante este parámetro puede llegar a incluir costos asimétricos de mano de obra,
determinados por costos de despedir o contratar personal o costos simétricos de
subcontratación o de trabajo en horas extra o como para este primer ejemplo en
particular, la minimización del nivel de inventario por período y por tipo de producto. Cabe
notar que esta función de costos debe ser diferenciable en todo su rango, convexa y
además debe cumplir que .
Por otro lado se cuenta con los costos asociados a la función de pérdida asimétrica de
error de producción la cual estará denotada usando la terminología de Cristoffersen &
Diebold (1997) como ( ) y que según Granger(1969) debe regirse bajo
unas restricciones y condiciones que puede o no incluirse en la realización, estas son:
( ) , lo que representa que cuando el error de pronóstico es cero, es
decir el pronóstico y el valor real son iguales, el costo asociado a dicho evento es
nulo.
81
para cualquier , lo que nos dice que siempre que exista un error
de pronóstico debe existir una función de costos asociada.
debe ser monotonicamente no decreciente en | |
Homogeneidad
Convexidad, continuidad y diferenciabilidad.
Como se mencionó anteriormente esta función de pérdida para el caso particular de las
ventas de un producto determinado presenta una estructura asimétrica debido a la
diferenciación en el momento de la asignación de los costos cuando el error es positivo
o negativo. Tenemos entonces que
{
Si la función de pérdida fuese simétrica alrededor del origen y la función de
distribución de los errores fuese simétrica alrededor de su media, entonces se tendría el
caso de una pérdida cuadrática con distribución normal en los errores. Mientras que bajo
el argumento que la función de costos asociada el error es asimétrica, se tendría una
situación más compleja, y dado que no se conoce la distribución de probabilidad de la
realización del proceso estocástico, se podría hallar una solución solo bajo casos
especiales y por tanto realizando supuesto específicos sobre la distribución. (Véase
McCullough (2000)).
Para el caso particular de la programación lineal base planteada anteriormente, la función
objetivo estaría determinada en su primer componente por una función que depende del
nivel de producción y el nivel de inventario en cuyo caso el parámetro que determina el
conjunto de información asociado a la producción sería igual a ; su interacción se
definiría entonces como el costo unitario de producción por el número de unidades a
producir sumado al costo unitario de almacenamiento multiplicado por el número de
unidades en inventario, esto, para cada uno de los tipo de productos en el tiempo.
∑∑
Para la construcción de la función de pérdida se debe notar antes que no tiene ninguna
restricción en su signo para ningún elemento del conjunto , por tanto es necesario hacer
una diferenciación en su signo para así poder asignarle el costo que corresponde. Este
problema debido a la asimetría de función de pérdida se abordará a partir de la
descomposición del dominio del error con el uso de estructuras dicotómicas que permitan
la diferenciación a la hora de la asignación del costo, esta metodología propuesta se
explica a continuación.
82
Metodología de descomposición del error21
Sea
igual al error en todo su domino negativo, lo que representaría una demanda
faltante debido a la sub-producción y igual el error en todo su dominio positivo, lo
que representaría un sobrante en la demanda debido a la sobre-producción. Se tiene que
donde por razones lógicas las dos variables y
no pueden ser diferentes de cero al
mismo tiempo, por lo que cuando una es diferente de cero la otra inmediatamente toma el
valor de cero y viceversa. Si por ejemplo decimos que tendríamos entonces que
, lo que representaría un faltante en la producción con un costo asignado
igual el costo de ruptura nato por dejar de vender dichos productos; mientras que si
entonces , lo que representaría un exceso de producción con un
costo asignado igual al costo de almacenamiento de ese producto sobrante.
Por consiguiente, el costo de pérdida de error estaría determinado de la siguiente
manera
( ) ∑∑
∑∑
Consolidando ambas funciones de costos y acorde a la forma estándar
presentada al comienzo de esta sección tendríamos el siguiente problema de
minimización
∑∑(
) ∑∑
∑∑
sujeto a
∑
∑
21 Adaptada para fines de este trabajo de Taha (2012)
83
5.2 Incorporación de atributos al conjunto de información
En la sección inmediatamente anterior se planteó un modelo tentativo base que se puede
acoplar al sistema de planeación de producción de muchas compañías cuyo fin sea
productivo. Sin embargo, es necesario la incorporación de ciertas otras variables
asociadas a las características de la organización estudiada que permitan mejorar y hacer
más robusto el modelo en términos de un acople más aproximado a la realidad.
La función de costos debe verse como una forma funcional que depende de
variables cuyas características afecten el nivel de producción y permitan la formación de
una estructura de producción variante en sus recursos disponibles. Estos recursos deben
ser fácilmente medibles, cuantificables y deben afectar directamente la productividad y la
producción.
La organización de estudio cuenta con un recurso humano y de capital que a través de su
capacidad, previamente hallada en capítulos anteriores, permiten evidenciar la dinámica
productiva de la organización. Esta capacidad cuya variabilidad depende del tiempo,
dimensiona la posibilidad de ajustar estos recursos disponibles de tal manera que hagan
mínima la función de costos. El conjunto de información se presenta como una relación
de interacción entre diferentes variables como: el número de trabajadores, la dinámica de
la fuerza laborar en los periodos de estudio y la posibilidad de usar las horas extra
ordinarias para incrementar la capacidad productiva y así cumplir con la demanda
especificada, además del nivel de inventarios y de producción presentados en la
programación lineal base previamente. Esta forma funcional estaría dada entonces como
( )
Donde mide el nivel de producción como el número de unidades producidas de la
referencia en el periodo de tiempo . Esta variable estará dividida como la producción en
el tiempo normal denotado como y producción en tiempo extra denotado como ;
denota la fuerza de trabajo como el número de trabajadores en la estación en el
tiempo ; determina el número de horas extra necesarias en la estación en el
período y por último y miden las dinámicas de los cambios en la fuerza de trabajo
a través del tiempo como el número de operarios a contratar y a despedir en la estación
en el período respectivamente.
Se tendrá entonces que la combinación del modelo base con esta complementación del
conjunto de información disponible se describe como la minimización de
la cual toma la siguiente forma
85
donde la ecuación (E0) describe el costo total a minimizar como la suma de las funciones
y estudiadas anteriormente la cual esta descrita como la suma de todas
las variables de decisión ponderadas por cada uno de sus costos respectivos. Las
ecuaciones (E1) a (E5) hacen referencia a las mismas ecuaciones descritas en la
programación lineal base, con la salvedad que se encuentran discriminadas por el tiempo
en hora extra y que se está considerando el volumen ( ) de cada uno de los tipos de
referencias para el cálculo de la utilización de la capacidad máxima de almacenamiento,
esto con el propósito de hacer más precisa la restricción planteada.
Las ecuaciones (E6) y (E7) describen el número de trabajadores necesarios en cada
una de las estaciones para cada periodo de tiempo como la multiplicación de cada tiempo
estándar de producción por el número de unidades a producir ponderado por el número
de número de hombres por hora hombre en un cada turno para cada periodo, esto para
todas las referencias estudiadas. Este ponderador se calcula de la siguiente forma
para tiempo normal
donde denota el número de horas por turno en tiempo normal y el número de
días hábiles en un mes dado. La forma de calcular es exactamente la misma,
solo que reemplazando por el número de horas por turno en tiempo extra .
Nótese que tanto en tiempo normal como en tiempo extra tienen como unidades el
número de hombres por hora hombre (i.e. ) por lo que la variable tomará las
unidades de hombres. Contrario a lo que dice la lógica sobre la discretitud de la variable
, esta variable tendrá una estimación en forma continua, debido a que la ponderación
del lado izquierdo de (E6) y (E7) arrojan valores continuos. Este problema de discretitud
no sugiere ser un problema grave, debido a la información intrínseca que esta variable
nos está queriendo decir; los decimales deben ser tomados como el trabajo necesario de
un hombre para cumplir con la producción lo que el modelo arroje como resultado.
La decisión sobre la variable puede verse a través de un umbral en 0.5, donde por
debajo de este umbral se dice que es necesario la contratación de un trabajador en medio
tiempo para ese periodo con el objetivo de cumplir con la demanda, de llegar a encontrar
que el valor decimal está por encima de ese umbral se dice que es necesaria la
contratación de un hombre adicional a lo que el valor entero de la variable me esté
diciendo. Por ejemplo, si el valor de , se decide por contratar 5 trabajadores en
tiempo completo y 1 en medio tiempo y si por el contrario se decide a contratar
8 trabajadores en tiempo completo.
La ecuación (E8) describe el número de horas extra necesarias para cumplir con la
demanda solicitada. Este valor, aunque es relativamente igual a solo que sin el
ponderador , es necesario de calcular debido a que en la práctica, el costo que se
asocia a la fuerza laboral en hora extra está considerado como el valor que se le paga a
86
cada trabajador por cada hora extra y no como un salario completo adicional. Además que
este costo es adicional al salario que se le paga a cada trabajador en tiempo normal
(considerado en ) y se supone que no es necesario la contratación adicional de
personal productivo para esta franja extra.
La ecuación (E9) describe la dinámica de la fuerza de trabajo de un periodo a un
período donde el número de trabajadores en se describe como la relación lineal entre
el número de trabajadores en tiempo normal en el periodo sumado al número de
personas contratadas en menos el número de trabajadores despedidos en ese mismo
período.
La ecuación (E10) más que una forma restrictiva del modelo es un indicador de
proporción entre lo que se produce y lo que se demanda en un periodo dado. Esta
proporción debe ser entendida como
{
La ecuación (E11) es simplemente el cálculo del número total de trabajadores necesarios
en el periodo de tiempo como la suma de todos los trabajadores en cada estación de
trabajo.
Las ecuaciones (E12) y (E13) corresponden exactamente la misma ecuación (B1) descrita
en la sección 3.7.1. Cálculo capacidad disponible recurso Hombre con la diferencia que se
está discriminando por tiempo normal y tiempo extra teniendo en cuenta , y el
número de descansos para cada uno de los tipos de tiempos. Debido a que la forma como
se calculan (E12) y (E13) presenta problemas de acotamiento puesto que se pueden
exceder las capacidades reales de la planta y subestimar su disponibilidad de recursos,
es necesario acotar la capacidad disponible del recurso hombre con la
capacidad fija del recurso máquina la cual fue calculada en la sección 3.7.2. Cálculo
capacidad disponible recurso Máquina en la ecuación (B2). Claro está que se supone de
antemano que la organización no tiene pensado aumentar la capacidad de este recurso
en el horizonte de tiempo, supuesto que fue comprobado en la organización por medio del
ingeniero de producción. Este acotamiento se describe en las ecuaciones (E14) y (E15).
La restricción (E16) determina que el nivel de inventario jamás puede bajar del
inventario de seguridad para cada tipo de producto Es necesario hacer énfasis en
esta ecuación debido a la importancia que tiene el inventario de seguridad en empresas
cuya demanda es tan volátil como la empresa de estudio. A continuación se presentará la
forma como se calculó dicho inventario de seguridad
87
Forma de obtención del inventario de seguridad para cada referencia.
Siguiendo la teoría de inventarios propuesta por George Plossl (1996) el inventario de
seguridad se calcula como una función de la desviación estándar del pronóstico
multiplicado por un nivel de confianza que depende del nivel promedio de ventas y se
determina a partir del valor del estadístico en una distribución normal estándar. Se tiene
entonces que
A continuación se presentará la forma del cálculo para una serie y se deja a
comprobación del lector el cálculo de las demás, esto con el propósito de no hacer
extenso el documento innecesariamente.
Se sabe por el Capítulo 4 que el pronóstico de la serie R1000, para cada uno de los 6
períodos en el horizonte de planeación es igual a
[13196.851 14428.579 17070.439 12797.259 12315.413 12749.441]
se tendría entonces que la y , acorde a Plossl (1996)
se recomienda el uso de un valor de igual a 95% es decir = 1.65. Por lo que el
inventario de seguridad para R1000 seria de unidades de
lavaloza.
A continuación se presentan los resultados del inventario de seguridad por periodo para
las demás variables
Referencia Inv. Seguridad
R250 32328.17 R500 10140.61
R1000 2929.21 R1500 947.47 R3000 689.95
Tabla 42 Inventario de seguridad
Fuente: Cálculos del Autor.
Cada uno de estas unidades de inventario de seguridad para cada referencia tiene
asociado consigo un costo de almacenamiento. Esta multiplicación entre y el inventario
de seguridad es llamado en la literatura costo de reserva de inventario. A continuación se
presenta dicho costo para cada una de las cinco referencias.
Referencia Costo de reserva de inventario de Seg.
R250 $ 51,078.51 R500 $ 33,565.43
R1000 $ 17,751.01 R1500 $ 7,513.43 R3000 $ 11,225.63
TOTAL $ 121,134
Tabla 43 Costo de reserva de inventario de seguridad
Fuente: Cálculos del Autor.
88
5.3 Integración GAMS en ASTEX
Con el propósito de dejar una herramienta sólida, fácil de usar y que permita a la
organización actualizar su plan de producción mes a mes sin necesidad de ver una sola
línea de código, lo cual muchas veces puede ser tedioso, se incorporó la opción del
modelamiento matemático de la programación lineal por medio de GAMS a través de
códigos de programación en VBA en ASTEX de forma mucho más intuitiva. Para ello se
modificó el código presentado por el ejemplo sudoku.xls en la página oficial de GAMS22
donde se da paso a la ejecución del código de GAMS desde el programa Microsoft Excel.
La explicación a detalle de esta integración GAMS-EXCEL se presenta en el Anexo 10.7.6
Integración GAMS-ASTEX para la planeación de la producción donde se explicará la
funcionalidad de cada una de las partes de dicho complemento y como puede ser
utilizado para el planeamiento adecuado de la producción.
5.4 Resultados del Modelo
Se procedió entonces a correr el modelo propuesto por la ecuaciones (E0) a (E17) desde
el aplicativo ASTEX-GAMS donde se obtuvieron los siguientes resultados para el tipo de
pronóstico en el nivel, es decir el valor puntual pronosticado y registrado en la Tabla 37.
Pronóstico ARIMA todas las series.
Ilustración 3 Ventana condiciones del modelo GAMS ASTEX
Fuente: Desarrollado por el Autor.
COSTO TOTAL DE LA PROPUESTA: $ 311’936,701.53
NÚMERO DE UNIDADES A PRODUCIR EN TIEMPO NORMAL
Marzo Abril Mayo Junio Julio Agosto
R250 65365.79 61092.93 65992.11 75449.79 77794.33 83101.99
R500 31157.82 23175.63 23355.72 0.00 17088.54 0.00
R1000 7526.06 14428.58 17070.44 12797.26 12315.41 12749.44
R1500 3260.39 2344.08 2512.30 3097.80 2409.28 4030.85
R3000 779.43 0.00 0.00 595.19 942.67 661.35 Tabla 44 Resultados LP Unidades a producir en Tiempo Normal
Fuente: Cálculos del Autor.
22
Véase: http://interfaces.gams-software.com/doku.php?id=env:spawning_gams_from_excel
89
NÚMERO DE UNIDADES A PRODUCIR EN TIEMPO EXTRA
Marzo Abril Mayo Junio Julio Agosto
R250 0.00 0.00 0.00 7464.82 0.00 9219.77
R500 0.00 3795.98 0.00 20049.49 0.00 14482.04
R1000 0.00 0.00 0.00 0.00 0.00 0.00
R1500 0.00 464.38 1098.84 0.00 0.00 0.00
R3000 1550.79 2814.33 1970.66 1286.03 835.50 1091.15 Tabla 45 Resultados LP Unidades a producir en Tiempo Extra
Fuente: Cálculos del Autor.
INVENTARIO FINAL DE PRODUCTO TERMINADO
Marzo Abril Mayo Junio Julio Agosto
R250 32328.17 32328.17 32328.17 32328.17 32328.17 32328.17
R500 10140.61 10140.61 10140.61 10140.61 10140.61 10140.61
R1000 2929.21 2929.21 2929.21 2929.21 2929.21 2929.21
R1500 947.47 947.47 947.47 947.47 947.47 947.47
R3000 689.96 689.96 689.96 689.96 689.96 689.96
Tabla 46 Resultados LP Inventario Final Producto Terminado Fuente: Cálculos del Autor.
NÚMERO DE HORAS EXTRA NECESARIAS
Marzo Abril Mayo Junio Julio Agosto
FebEnvase 0.00 0.00 0.00 0.00 0.00 0.00
Mezclado 26.19 62.12 42.55 88.61 14.11 72.12
Resto 22.68 70.43 39.95 183.90 12.22 153.34
Tabla 47 Resultados LP Número de Horas Extra Necesarias Fuente: Cálculos del Autor.
NÚMERO TRABAJADORES NECESARIOS
Marzo Abril Mayo Junio Julio Agosto
N° Total 6.10 6.06 6.08 5.81 5.81 5.81
Tabla 48 Resultados LP Número de Trabajadores Necesarios Fuente: Cálculos del Autor.
NÚMERO DE PERSONAS CONTRATADAS
Marzo Abril Mayo Junio Julio Agosto
FebEnvase 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
Mezclado 0.0000 0.0000 0.0120 0.0000 0.0000 0.0000
Resto 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
Tabla 49 Resultados LP Número de Contrataciones por Estación Fuente: Cálculos del Autor.
NÚMERO DE PERSONAS DESPEDIDAS
Marzo Abril Mayo Junio Julio Agosto
FebEnvase 0.00 0.00 0.00 0.00 0.00 0.00
Mezclado 0.78 0.00 0.00 0.10 0.00 0.00
Resto 4.12 0.04 0.00 0.16 0.00 0.00
Tabla 50 Resultados LP Número de despidos por Estación Fuente: Cálculos del Autor.
90
Lo primero y más relevante de todo a lo que es necesario prestarle atención es que en la
ventana de condiciones salientes del modelo GAMS (Ilustración 3. Ventana condiciones
del modelo GAMS ASTEX) aparezca que el estado del modelo es óptimo. Esta condición
nos está indicando que fue posible encontrar una solución factible al modelo de
programación lineal y por tanto los resultados arrojados son interpretables. En caso que el
modelo arroje una condición de no factibilidad (infeasible) será necesario revisar el
cumplimiento de las restricciones del modelo. Esta condición se da puesto que alguna de
ellas no se cumple y por tanto el lado derecho (RHS - Right Hand Side) de la ecuación no
satisface la condición del lado izquierdo (LHS – Left Hand Side) por lo que será necesario
el replanteamiento de la decisión a tomar.
En este caso el modelo satisface todas las restricciones y encontró un mínimo costo total
de la propuesta cercano a los 312 millones de pesos para todos los seis meses (Marzo-
Agosto) del horizonte de planeación. Además, observe que el modelo logró una
asignación de recurso optima que permite minimizar el costo total hasta dicho valor.
Note que el modelo permite evidenciar la necesidad de un replanteamiento de las
actividades que la organización actualmente venía realizando. A continuación se
describen ciertos puntos a tener en cuenta después de la corrida del modelo sobre este
tema:
1. Debido a que la organización viene utilizando todas sus horas extra de producción
durante todos los días, esto genera ineficiencias a la hora de la asignación óptima
de recursos. Gracias al plan de producción propuesto es posible evidenciar que
dicho recurso no debe ser utilizado todo el tiempo sino en ciertos periodos
dependiendo de la demanda. Esto reducirá costos de producción debido a que no
se está pagando horas extra todo el tiempo como se venía realizando; sobre este
tema de costos se hablará en el capítulo siguiente. La asignación del número de
horas extra se presenta en la Tabla 45.
2. El número óptimo de horas extra necesarias por cada una de las estaciones de
trabajo se presenta en la Tabla 47. Observe que la estación Fabricación de
Envase no demanda este recurso debido básicamente a que esta estación
únicamente fabrica envases para las referencias R500 y R1000 por lo tanto la
capacidad disponible sobrepasa la capacidad requerida en un nivel mucho mayor
que las demás y no hace falta el trabajo en horas extra. Las demás etapas
necesitan hacer uso de este recurso para poder fabricar el valor igual a la suma
de las unidades de cada una de las columnas de la Tabla 45. Por ejemplo, para el
mes de abril es necesario disponer de 132.55 horas hombre (62.12+70.43) extras
para llegar a fabricar 7074.69 unidades de lavaloza repartidas en 3795.98
unidades de la referencia R500, 464.38 de la referencia R1500 y 2814.33 de la
referencia R3000.
91
3. Observe en la Tabla 48 que el número de trabajadores necesarios pasa de un
valor inicial en febrero igual a 11 a marzo de 6.1 7 trabajadores. Esto quiere decir
que la organización puede disponer de solo 7 trabajadores y cumplir con la
demanda sin necesidad de sobrecostearse con 4 trabajadores más. Este número
de siete trabajadores se mantiene aproximado para todos los meses.
4. Note por la Tabla 50 que la mayoría de trabajadores que deben ser despedidos
vienen de la estación Resto, es decir de los procesos de Fajillado, Envasado,
Pesado, Tapado y Empacado, donde previamente estaban trabajando 7
trabajadores. Esto quiere decir que cerca de 3 trabajadores están siendo
improductivos en esta estación y por tanto podría validarse la posibilidad de
reorganizar la estructura de la fuerza laboral en la organización. Una vez se
trabaja con un número cercano a 7 trabajadores, el sistema se estabiliza y puede
cumplir con la demanda propuesta sin entrar en sobre costos.
Las estación de Fabricación de Envase no parece necesidad de contratar o
despedir personal. Eso quiere decir que con un número de trabajadores igual a 2
como se venía trabajando previamente, el sistema produce óptimamente.
La estación Mezclado necesita de un adecuado análisis. Aunque se dice que se
debe dejar de disponer de 0.78 trabajadores no se debe caer en el error de
pensar en despedir un trabajador (0.78 ). Esto debido a que la organización
necesita de esa fracción de 0.22 trabajadores para operar óptimamente.
Adicionalmente, se dice que es necesario disponer de este trabajador adicional
todo el tiempo normal, a diferencia de cómo se viene trabajando hasta el
momento donde trabaja solo medio tiempo.
5. Por último observe que es necesario disponer de un inventario de seguridad en
cada uno de los periodos de tiempo, esto con el propósito de minimizar el riesgo
de la organización a faltar a la demanda.
Al final de este documento, en el Anexo 10.9.5. Resultados programación lineal GAMS-
ASTEX es posible visualizar la forma como se presentan los resultados obtenidos en este
apartado por medio de ASTEX.
En este mismo Anexo 10.9.5 es posible encontrar las corridas simuladas de los modelos
bajo el escenario con un intervalo de confianza superior de a dos desviaciones estándar
del error del modelo y con un intervalo de confianza inferior a una desviación estándar. Se
obtu o un costo total m imo de $ 545’5 964 en el escenario m s alto y de $
95’909 70 . 8 en el escenario más bajo. Eso quiere decir que en el costo total para los
seis meses oscilará entre estas dos fronteras donde se espera que el valor más
aproximado este cercano a los 312 millones de pesos, como se obtuvo en el valor del
nivel.
92
El número de trabajadores entre estos dos escenarios oscila entre 5 y 10 trabajadores
totales por mes, con un valor para el nivel de 7 trabajadores, como se vio anteriormente.
En cuanto al número de horas extra necesarias, el valor total para todos los seis meses
oscila entre 664.7 horas hombre para el escenario más bajo y 1282.9 horas para el
escenario más bajo, con un nivel de 788.22 horas hombre para el escenario promedio.
A continuación se presenta el resumen de los rangos de fluctuación entre los cuales
oscilara el valor real de cada variable
Variable Inferior Promedio Superior
Costo Total $ 95’909 70 . 8 $ 3 ’936 70 .5 $ 545’5 964 Número de Trabajadores 5 trab/mes 7 trab/mes 10 trab/mes
Horas Hombre Extra 664.7 hh 788.22 hh 1282.9 hh
Tabla 51 Rangos de oscilación
Fuente: Cálculos del Autor.
93
6 ANÁLISIS DE BENEFICIOS ECONÓMICOS DEL PLAN DE PRODUCCIÓN EN LA
ORGANIZACIÓN
6.1 Costo de Implementar la Propuesta
Existen ciertos costos relevantes que deben ser tenidos en cuenta a la hora de
implementar la propuesta del plan de producción desarrollado en este trabajo. Con el
objetivo de planear una producción eficientemente es necesario dividir estos costos en
dos. El primer grupo corresponde a los costos de mano de obra y el segundo grupo a los
costos de licencias de los software que se utilizaron para el pronóstico y la programación
cuantitativa de la producción.
6.1.1 Costos de mano de obra
Este trabajo resaltó la necesidad de contar con un buen plan de producción, desarrollado
de manera más cuantitativa y menos empírica. Para ello se debe disponer de un personal
capacitado que asuma esta labor y realice la planeación anual, efectuando ajustes mes a
mes acorde a las necesidades que la planta así lo requiera y que presente conocimientos
en técnicas de análisis de datos y metodologías de series de tiempo.
En la actualidad la organización cuenta con un Ingeniero Industrial, capaz de ejercer las
labores de jefe de operaciones y de entender los conceptos presentados en este trabajo
sobre la programación lineal y sus componentes. Sin embargo, debido a que la propuesta
presenta la necesidad de un buen pronóstico en la planeación bajo modelos complejos de
series temporales con un conocimiento econométrico previo. Es necesario que este
ingeniero cuente con una capacitación sobre este tema puesto que los conocimientos que
se tienen sobre series de tiempo econométricas en la disciplina ingenieril son mucho más
básicos de lo que la propuesta presenta. Se tiene entonces que los costos relacionados a
la mano de obra para el Ingeniero a cargo son de
Criterio Peso Valor
Salario base - $ 3’300 000 Salud 8.5% $ 110,500
Pensión 12% $ 156,000 Riesgos Profesionales Tipo I: 0.522% $ 6,786
Parafiscales ICFB 3% SENA 2%
Cajas de compensación 4%
$ 39,000 $26,000 $ 52,000
Total mensual 30% $ 3’690,286 Subtotal anual - $ 0’ 83 43
Cesantías 1 Salario Base al año $ ’300 000 Intereses Cesantías 12% de cesantías $ 156,000
Prima 1 Salario Base al año $ ’300 000 Total Anual - $ 23’039,432
Tabla 52 Costo variable Mano de Obra
Fuente: Cálculos del Autor.
94
Acompañado de los siguientes costos fijos derivados de dos capacitaciones en cursos del
CANDANE (Centro de Formación en Estadística del DANE) que se dictarán por
funcionarios y contratistas del DANE en el 201423.
Criterio Duración Valor
Curso Series de Tiempo Abril 1 a mayo 9 de 2014 $ 440,000 Curso Programación SAS Abril 1 a mayo 9 de 2014 $ 300,000
Total - $ 740,000
Tabla 53 Costos fijos de Mano de Obra
Fuente: Precios obtenidos de la página web www.dane.gov.co/candane/
6.1.2 Costos de licencias
Para el desarrollo adecuado de esta propuesta es necesario la compra de las dos
licencias de software: el primero para el desarrollo adecuado del pronóstico a través del
SAS 9.4 con el módulo SAS/ETS y el segundo para la planeación eficiente de la
producción a través de GAMS. La siguiente tabla resume los costos
Software Costo de licencia Costo en pesos*
SAS® 9.4/ETS24
USD $ 2,510 $ 4’899 43 GAMS
25 USD $ 1,600 $ 3’ 960
Total - $ 8’0 03.5 * Basado en una tasa de cambio de $ 1951.85 pesos colombianos por dólar estadounidense del 6/04/2014 tomada del BANREP. La cifra está sujeta a TRM del día.
Tabla 54 Costos de licencias
Se tiene entonces que los costos totales de implementar la propuesta bajo los
lineamientos del trabajo y teniendo en cuenta la mano de obra, capacitaciones y licencias
llega a un aproximado de $ 12’45 89.5 ($ 8’76 03.5 fi os + $ 3’690 86 de sueldo
variable) el cual varía un poco dependiendo de la Tasa Representativa del Mercado
(TRM) que rija el día de la compra.
6.2 Beneficios y Contribuciones del Proyecto
Las herramientas presentadas por este trabajo de grado permiten abordar la perspectiva
de la planeación de la producción desde una óptica de pronósticos mucho más elaborada,
debido a la importancia que tienen estos en la finalidad de una planeación productiva.
Este proyecto brinda varias contribuciones y beneficios, por un lado en la parte
investigativa sobre la temática de pronósticos y por otro lado en la parte empírica aplicada
a una empresa real en el sector productivo de jabones a nivel nacional. A continuación se
desglosarán dichos beneficios para cada uno de estos dos temas.
El carácter investigativo de este trabajo proyectó la necesidad de una buena disciplina
hacia un tratamiento adecuado de los pronósticos en la planeación. Se observó que es
23 Véase la página web del DANE http://www.dane.gov.co/candane/ para mayor información sobre
los cursos. 24 Consultado en http://www.execinfosys.com/ProductsOld/PCBUNDLE_2.pdf 25 Tomado de: http://www.gams.com/sales/commercialp.htm para el Software GAMS/ALPHAECP
capaz de resolver problemas de programación lineal MINLP.
95
necesario reconocer el hecho que existen asimetrías en la función de pérdida del error de
pronóstico de las ventas y que esto puede llegar a afectar la planeación estratégica de la
producción, en la optimización de los recursos. Así como puede llegar a sesgar y
distorsionar los resultados del modelo de minimización de costos, trayendo consigo un
problema subyacente en la toma de decisiones en las organizaciones.
Se enfatizó también en la necesidad de contar con una metodología acorde al proceso
que describe la serie de tiempo a tratar. Debe dedicarse un mayor esfuerzo a la
realización eficiente de pronósticos que permitan la obtención de mejores resultados y
reduzcan costos en la organización. La contribución de este trabajo hacia este campo se
motivó al comparar dos tipos de modelos, uno lineal a través de la metodóloga ARIMA y
otro cuyo comportamiento era completamente automático y poco confiable.
Las contribuciones prácticas realizadas en este trabajo toman lugar en los beneficios
netos que acarrea la implementación del plan de producción propuesto en la empresa de
estudio. Los beneficios netos de la propuesta se dan como el ingreso total menos costo
total. Al multiplicar el valor demandado por cada uno de los precios de las referencias se
obtiene un ingreso total de $ 995’3 4 55.7 el cual al ser restado por los costos totales de
la propuesta $ 3 ’936 70 .5 se logra obtener un beneficio neto de $ 638’387,454.1.
Para obtener la cantidad que la propuesta logrará ahorrar, se deben obtener los costos en
los que incurre la organización actualmente. Los cálculos de estos costos se registran en
la Tabla 55. Método Propuesto Frente a Método Actual, observe que es necesario
contrastar los mismos costos que se calcularon en la propuesta, de lo contrario no tendría
sentido su comparación. Es decir que se tuvieron en cuenta costos de producción, costos
de almacenamiento de producto terminado, costos de mano de obra y costos de horas
extra. Los costos asociados a despedir y contratar personal se supone que son cero
puesto que la fuerza de trabajo se mantiene constante en el tiempo bajo la metodología
actual de producción en la organización.
Los resultados mostraron que el plan de producción propuesto logrará reducir los costos
en un 16.44% en 6 meses del horizonte de planeación, es decir un ahorro promedio
cercano a $ 0’35 08.04 por cada mes del horizonte.
Por último, el desarrollo de la programación lineal mostró la necesidad de contar con una
formulación cuantitativa del plan de producción para evitar la sobre o subproducción
derivada del tratamiento especulativo de la demanda.
96
Costo Observaciones
Costos de Producción $ 88’035 786.7
Estos costos fueron calculados como la sumatoria del número de unidades producidas considerando el inventario de seguridad, multiplicado por el costo de producción unitario de cada una (Ver Tabla 10).
Costos de Almacenamiento
$ ’8 9 9.73
Este costo fue calculado como en número de unidades en almacenamiento de producto terminado (el cual corresponde al inventario de seguridad, como se vio anteriormente) multiplicado por el costo de mantener en inventario de cada una de las referencias (Ver Tabla 11).
Costos de Mano de Obra
$ 68’079 000
Estos costos fueron calculados teniendo una fuerza de trabajo constante de 9 operarios por mes, este valor fue obtenido por medio de la organización para el mes de febrero de 2014. Su cálculo se da multiplicando el número de empleados por el costo de cada uno de ellos ($ ’03 500.00, ver Tabla 9) y multiplicando este valor por seis meses del horizonte.
Costos de Horas Extra $ 0’89 644.96
Este costo fue calculado como la multiplicación entre la sumatoria del número de días hábiles al mes multiplicado por 4 horas extra trabajadas por cada empleado (según información dada de la organización) por el número total de empleados al mes (11) multiplicado por el costo de cada hora extra ordinaria ($ 3,208.33 ver Sección 3.8.1)
Costo Total Actual $ 377’734,235.71
Costo Propuesta $ 3 ’936 70 .5 Costo del Ingeniero $ 3’690 86
Total Costo Propuesto $ 315’626,987.5
AHORRO $ 62’107,248.21 17.42%
Tabla 55 Método Propuesto Frente a Método Actual
Fuente: Cálculos del Autor.
Según consultas con la gerencia administrativa, previo a la realización del estudio, se
evidenció la clara necesidad de contar con una planeación estratégica de la producción
más rigurosa y menos empírica. Indicadores como el porcentaje de pedidos no
entregados a tiempo pueden estar llegando al 15 o 20%, lo que genera (i) sobrecostos, (ii)
puede afectar la reputación de la empresa con los principales clientes, (iii) desmejora la
calidad y (iv) trae consigo una pérdida clara en los ingresos. La implementación de esta
propuesta conduciría a la notable reducción de este indicador debido a la función que
ejecutará el ingeniero de operaciones en el procedimiento programático en un ritmo
normal de trabajo para el abastecimiento de la demanda optimizando los recursos con los
que cuenta la organización. Esta reducción está basada además en los resultados de la
programación lineal y el sustento teórico que otorga la eficiencia de los pronósticos aquí
presentados, frente a los usados actualmente por la organización cuyo método se basa
completamente en técnicas cualitativas y no hay registros ni datos históricos de posibles
97
errores en la proyección de las ventas desde el comienzo de la alianza estratégica entre
las empresas Alianzas y Alta pureza en el año 2010.
6.3 Comportamiento de las Variables Ante Cambios en la Demanda.
Con el objetivo de realizar un análisis sobre cuán sensible son las variables de respuesta
ante cambios en la cantidad demandada, se procedió a observar el comportamiento de
diferentes variables ante cambios en dicha cantidad. Para ello se dispuso a incrementar
gradualmente la cantidad demandada y correr el modelo para cada simulación. Se
obtuvieron y guardaron los resultados de cada modelo y se procedió a graficar estos
comportamientos.
Esta simulación mostró que después de 35,039 unidades de cada referencia en cada
periodo de tiempo el modelo no es factible debido a que se sobrepasa la capacidad
requerida frente a la capacidad disponible der recurso máquina. Esto quiere decir que si
se demandara más de esta cantidad por cada uno de las referencias el sistema no sería
capaz de satisfacer la demanda y por tanto sería necesaria una estrategia de ampliación
de la capacidad.
A continuación se presenta la evolución del costo total de producción frente a cambios en
la cantidad demandada
Gráfica 3 Evolución del costo total frente a la demanda
Fuente: Realizado por el Autor
observe que debido al carácter lineal de la función objetivo, el costo total crece de manera
lineal ante cambios en la cantidad demandada. Sin embargo sucede un hecho relevante y
es el salto de pendiente que se da entre una demanda de 100 a 150 unidades de cada
producto. Entre estos dos puntos la función de costos crece mucho más rápido (con
pendiente más inclinada) que en los puntos siguientes. De ahí en adelante la pendiente
sigue siendo la misma para incrementos en la demanda. Note que está pendiente,
después de 150 unidades, puede ser calculada como
$ ,
$ 5.000.000,
$ 10.000.000,
$ 15.000.000,
$ 20.000.000,
$ 25.000.000,
$ 30.000.000,
$ 35.000.000,
0 200 400 600 800 1000 1200
Demanda
Costo Total
98
⁄
esto quiere decir que por cada unidad adicional de unidad demandada de cada una de las
referencias, el costo total se incrementará en $ 34,380.9 aproximadamente. Este concepto
es relacionado a la costó marginal de demanda el cual determina cuanto cambia el costo
total por cada unidad demandada adicional.
Este mismo concepto puede ser aplicado a la variable de fuerza de trabajado, puesto que
presenta la misma evolución frente a las unidades demandadas (ver Gráfica 4) el valor del
cambio marginal de una unidad adicional de demanda frente al número de trabajadores
será igual a . Esto quiere decir que por cada unidad adicional
de demanda es necesario disponer de una fracción de 0.00172 de trabajador adicional.
Por consiguiente es necesario que la demanda de cada uno de los productos incremente
en unidades para que sea necesario contratar un operario
adicional y poder satisfacer la demanda.
Gráfica 4 Evolución de la fuerza de trabajo frente a la demanda
Fuente: Realizado por el Autor
Adicionalmente se presentará como cambia la variable contratar ante cambios en la
cantidad demandada. Observe por la Gráfica 5 que la evolución del número de personar
contratadas es creciente en el número de unidades demandas pero marginalmente
decreciente cuando se está por llegar a las 35,089 unidades (después de las cuales el
sistema no es factible).
Este fenómeno sucede puesto que como se verá más adelante, cuando el sistema está
por llegar a dicho valor de demanda, la razón entre la capacidad disponible y la capacidad
requerida se hace cada vez más cercana a la unidad, esto hace que el sistema necesite
en mayor medida de los inventarios de producto terminado que de la producción misma
puesto que cercano a dicho valor no será posible producir más debido a la poca
capacidad disponible con la que se dispone. Al tener que “echar mano” de los in entarios
la cantidad de personal a contratar decrece gradualmente casi en una unidad puesto que
0
0,2
0,4
0,6
0,8
1
1,2
0 200 400 600 800 1000 1200
Nº
Tra
baj
ado
res
Demanda
Fuerza de trabajo
99
la gestión de inventarios suplirá la necesidad de satisfacción de la demanda dada la
eventual limitación de la capacidad.
Gráfica 5 Evolución del número de contrataciones frente a la demanda
Fuente: Realizado por el Autor
Este mismo fenómeno se puede validar observando las funciones de relación entre
inventario y cantidad demandada de cada una de las referencias estudiadas. Note en el
Anexo 10.9.8. Resultados Análisis del Comportamiento de las Variables en LP que al
principio del sistema (entre 5 y 5,000 unidades de lavaloza para cada referencia) la
evolución de cada nivel de inventario es marginalmente decreciente, esto se da puesto
que entre este rango de demanda el sistema tiene una relación de capacidad requerida
frente a capacidad disponible muy cercana a cero, por lo que el sistema no necesita de la
gestión de inventarios para poder suplir la demanda. Es decir que es capaz de producir lo
que la demanda requiere. Una vez se pase de dicho punto (entre 5,000 y 30,000
unidades) el sistema se estabiliza en un nivel de inventario fijo, diferente para cada una de
las referencias.
Sin embargo, observe que después de un valor de demanda entre 30,000 hasta 35,089
unidades de lavaloza el sistema comienza a guardar más inventario que el nivel fijo en el
cual venia. Esto se debe, como se mencionó anteriormente, a que el sistema necesita
“echar mano” de los in entarios para lograr satisfacer la demanda debido a la limitación
en términos de capacidad disponible del recurso máquina para unidades cercanas a las
35,089 unidades de lavaloza para cada una de las referencias. Por ello se dice que
después de dicho valor de demanda el sistema necesitará de una estrategia de
ampliación de la capacidad (compra de más capital), puesto que el LHS de la ecuación
es mayor que el RHS de dicha restricción, y el sistema será no factible.
-0,5
0
0,5
1
1,5
2
2,5
3
3,5
4
0 5000 10000 15000 20000 25000 30000 35000 40000
Nº
Co
ntr
atac
ion
es
Demanda
Contrataciones
100
6.4 Análisis de Sensibilidad o Análisis Posóptimo
El desarrollo del análisis de sensibilidad del modelo de Programación Lineal Mixta (MIP
por sus siglas en ingles Mixed Integer Programming) presentado en este capítulo se
obtuvo por medio del solver CPLEX en GAMS, el cual permite obtener la cuantificación de
los efectos en la solución óptima de diferentes cambios en los parámetros del modelo
matemático. Esto se realizó puesto que al correr el modelo, se da por sentado que los
valores de los parámetros se conocen con total certidumbre; sin embargo, en la realidad
no siempre se cumple esta situación puesto que variaciones en ciertas condiciones del
modelo (por ejemplo costos, capacidades o demanda) ocasionan cambios en los
coeficientes de la función objetivo.
Estos cambios en el modelamiento matemático pueden ser obtenidos sin necesidad de
reestimar el modelo, esto a través del análisis postótimo, el cual se relaciona con dos
aspectos importantes: (i) cambios en los coeficientes de las variables de decisión en la
función objetivo o (ii) cambios en los lados derechos RHS de las restricciones que definen
el modelo.
Para llevar a cabo en GAMS/CPLEX la sensibilidad del modelo fue necesario:
1. Activar en la ventana opciones-solvers la opción CPLEX en MIP y LP. Esto
permite que el programa reconozca el tipo de estructura que se incluirá al final del
código (Véase Anexo 10.8.3. Código GAMS para Plan de Producción).
2. Crear un archi o llamado “cplex.opt” el cual debe contener las siguientes dos
líneas de código en el:
objrng all
rhsrng all
Esto se realiza con el propósito de crear un fichero de opciones, en el cual se
identifica el requerimiento del análisis del rango de los coeficientes de la función
objetivo y de los términos independientes.
3. Por último se adicionan las siguientes líneas inmediatamente después de ejecutar
el modelo (MODEL PlanProduccion /ALL/) en GAMS:
option LP=CPLEX;
PlanProduccion.optfile=1;
Estas dos linear permitirán primero llamar a la opción previamente activada
CPLEX y segundo al fichero de opciones creado en el paso dos.
Una vez realizado este procedimiento se logró obtener el análisis de sensibilidad para el
RHS de cada una de las ecuaciones y para cada una de las variables. Este se registra en
101
el archivo (.lst - listing) anexo a GAMS. Para efectos prácticos se presentará como
ejemplo el análisis para cambios en el RHS de la ecuación (E2) es decir para el caso
especifico de la referencia R250 en cada periodo de tiempo t, es decir para
. La misma lógica que se presenta a continuación es aplicable a todos los análisis
para las demás variables y ecuaciones presentadas en el listing de CPLEX el cual puede
ser consultado en el Anexo 10.9.9. Resultados Análisis Posoptimal.
Bajo Nivel Alto Marginal
R250 .Marzo 35,310.00 36,837.61 37,810.00 $ 241.979
R250 .Abril 61,092.92 61,092.92 61,092.92 $ 242.655
R250 .Mayo 65,992.11 65,992.11 67,280.00 $ 243.092
R250 .Junio 82,914.60 82,914.60 82,914.60 $ 238.822
R250 .Julio 77,794.33 77,794.33 77,794.33 $ 240.402
R250 .Agosto 83,100.00 92,321.76 92,321.76 $ 226.858
Tabla 56 Análisis de sensibilidad (E2) R250; t=2,...6
Nota: Unidades de lavaloza
El cuadro anterior recoge el análisis de sensibilidad del término RHS de (E2), el cual nos
muestra directamente los limites inferior y superior de los valores de inventario para los
cuales la solución actual, entendida como las variables básicas y no como su
correspondiente valor, se mantiene como optima. Por consiguiente se puede decir que,
por ejemplo, para el mes de marzo el inventario de la referencia R250 puede variar entre
35,310 unidades y 37,810 unidades sin que esto afecte la optimalidad del modelo.
Observe además que el valor Marginal (conocido como Precio Sombra) dictamina en
cuanto se incrementará (o reducirá, ya que no necesariamente la relación tiene que ser
positiva para todas las variables) el costo total del modelo ante un cambio en una unidad
adicional de mantener en inventario una unidad de R250 en el mes. Por ejemplo
para el mes de julio, se dice que incrementar en una unidad adicional el inventario de la
referencia R250 incrementará en un total de $ 240.402 aproximadamente el costo total de
la organización para dicho mes. Este cambio se denomina cambio marginal el cual se
determina como la derivada parcial de la función objetivo ante un cambio infinitesimal en
una de las variables del modelo.
Esta información es de pertinencia para la organización ya que puede llevar a un proceso
de toma de decisiones mucho más eficiente que con valores puntuales arrojados por el
modelo. En general se dice que este análisis tiene como principal objetivo la identificación
del impacto que tiene el cambio de ciertos parámetros, variables o restricciones
relevantes como capacidades, materia prima o número de trabajadores, en el problema
original, sin que éste pierda su condición de optimalidad.
102
7 CONCLUSIONES
Una vez desarrollado el estudio del plan de producción para la empresa Alianzas y/o
Industrias Alta Pureza se llegaron a obtener las siguientes conclusiones:
1. Herramientas de la investigación de operaciones como el método de
programación lineal entera permiten establecer el plan de producción de la
organización aplicando diferentes estrategias que permitan la satisfacción de la
demanda pronosticada en el horizonte de planeación.
2. La caracterización del sistema de producción de la organización por medio de la
identificación de elementos claves como tiempos estándar de producción, costos
asociados al proceso productivo, diagrama de operaciones, representantes tipo,
capacidades disponibles, es relevante para el correcto modelamiento matemático
del plan de producción.
3. Los resultados del esquema rolling de evaluación de pronóstico fuera de muestra
con medidas de error tanto simétricas como asimétricas permitieron mostrar la
eficiencia de los modelos ARIMA frente al método comparativo. Además, se
concluye que para series estacionarias de ruido sobre un tendencia
determinística, el ajuste de algún método de sustracción de la tendencia traerá
resultados muy similares a la luz del esquema rolling.
4. Los resultados permitieron llegar a concluir por medio de las medidas de error
simétricas y asimétricas que la realización de un modelo de series de tiempo
lineal ARIMA realizado adecuadamente presenta un mejor rendimiento tanto
dentro como fuera de la muestra que las metodologías de estimación automáticas
de algunos paquetes estadísticos, las cuales son de suma desconfianza debido a
que no hay un análisis de series de tiempo detrás.
5. La herramienta desarrollada en Excel (ASTEX) permite que el uso de los modelos
de pronóstico y programación lineal sea más amigable para el manejo en un
ambiente empresarial.
103
8 RECOMENDACIONES
Se recomienda un estudio de la redistribución de la planta con el objetivo de contar
con una producción de trabajo continua que permita el flujo eficiente de materiales
acorde a las condiciones de trabajo de la organización. Esto se puede lograr con
ayuda de los tiempos estándar de trabajo presentados en este trabajo, además de
las capacidades de producción. Todo esto con el objetivo de lograr una
distribución de planta orientada a los procesos.
Se recomienda la complementación del trabajo incluyendo una política de
inventarios a través de la construcción de un manual que permita la adecuada
administración de los inventarios para reducir costos de mantener y abastecer.
Esto se puede lograr a través de las técnicas propuestas en este trabajo y por
medio de herramientas del análisis y la gestión de inventarios. En este punto, y
conectando con el punto anterior, se hace énfasis en la mejora de la distribución
de los inventarios de producto en proceso y producto terminado para el adecuado
aprovechamiento de la capacidad de la planta.
El modelo de programación productiva presentado en este trabajo es solo un tipo
de metodología de planeación estratégica de producción. Existe una extensa
diversidad de modelos que permiten llegar a el mismo objetivo, de diferentes
maneras y cada uno con sus debilidades y falencias. Por tanto, se recomienda
comparar los resultados del modelo de LP con modelos heurísticos como Teoría
de Restricciones (TOC) propuesto por Goldratt (1994) a partir de la determinación
de cuellos de botella buscando identificar las limitaciones del sistema y la
aplicación de sistemas que mejoren los problemas críticos de la empresa, o
modelos metaheurística de asignación de recursos como los algoritmos genéticos.
Se recomienda la confrontación de los modelos de pronóstico presentados aquí
con modelos multivariados tipo vector autoregresivo VAR para las series en
conjunto, con la incorporación de relaciones de cointegración de largo plazo entre
las referencias que conforman el sistema de producción. Además de la
confrontación con modelos que reconozcan la presencia de no linealidades en la
serie como modelos de redes neuronales artificiales (ANN) cuyo desarrollo
empírico en el campo del pronóstico de series de tiempo ha arrojado resultados
bastante eficientes en los últimos años debido a su representación no lineal del
proceso.
104
9 BIBLIOGRAFÍA
Chase, R. B., Jacobs, F. R., & Aquilano, N. J. (2009). Administración de operaciones,
producción y cadena de suministro (12ª edición ed.). Mc Graw Hill.
Wooldridge, J. M. (2009). Introduccion a la econometría. Un enfoque moderno (4ª edición
ed.). Cengage Learning Editores.
Schroeder, R. G. (1996). Administración de operaciones, toma de decisiones en la función
de operaciones. Mexico: McGraw Hill.
Montenegro, A. (1989). La funcion de autocorrelación y su empleo en el análisis de series
de tiempo. Revista Desarrollo y Sociedad (23), 16.
Box, G. E., & Jenkins, G. M. (1970). Time Series Analysis, Forecasting and Control. San
Francisco: Holden-Day.
Everett, A. E., & Jr. Ronald, E. J. (1991). Administración de la producción y de las
operaciones: conceptos, modelos y funcionamiento (4ª edición ed.). Pearson
Education.
Krajewski, L. J., Ritzman, L. P., & Malhotra, M. K. (2008). Administración de Operaciones.
Procesos y cadenas de valor (8ª edición ed.). Pearson Education.
Ostrow, P. (Junio de 2011). Sales Forecasting, How Top Performers Leverage the Past,
Visualize the Present, and Improve Their Future Revenue. Recuperado el 2013, de
Sales Logix: http://www.saleslogix.com/media/en-
us/docs/collateral/aberdeen_white_paper_sales_forecasting.pdf
Harrison, P. J., & Pearce, S. F. (1972). The use of trend curves as an aid to market
forecasting. Industrial Marketing Managment.
Harvey, A. C. (1989). Forecasting, Structural Time Series Models and the Kalman Filter.
Cambridge: Cambridge University Press.
Gardner, E. S. (1983). Automatic monitoring of forecast errors (Vol. 2). Journal of
Forecasting.
Zellner, A. (1986). Bayesian Estimation and Prediction Using Asymmetric Loss Functions.
Journal of Forecasting , 8, 446-451.
Varian, H. (1974). A Bayesian Approach to Real Estate Assessment. 195-208.
McCullough, B. (2000). Optimal Prediction with a General Loss Function. Journal of
Combinatorics Information & System Sciences , 25, 207-221.
Granger, W. C. (2001). Prediction with a Generalized Cost Function. (C. U. Press, Ed.)
Operational Research , 199-207.
Christoffersen, P. F., & Diebold, F. X. (1997). Optimal Prediction Under Asymmetric Loss.
Econometric Theory , 806-817.
105
Jalil, M. A., & Misas, M. (2007). Evaluación de pronósticos del tipo de cambio utilizando
redes neuronales y funciones de pérdida asimétricas. Revista Colombiana de
Estadística , 143-161.
GRECO, G. d. (1999). El desempeño macroeconómico colombiano Series estadísticas
(1905 - 1997) Segunda versión . Bogotá: BanRep.
Chang, J. F. (2006). Business Process Management Systems. Auerbach Publications.
Kendall, K. E., & Kendall, J. E. (2005). Análisis y Diseño de Sistemas (6ª Edición ed.).
Pearson Education Inc.
Laudon, K. C., & Laudon, J. P. (2012). Managment Information Systems (12ª ed.).
Pearson Education Inc.
Okoli , N. C., Obuka , N. S., Onyechi , P. C., & Ikwu , G. O. (2012). Modeling of Production
Plan and Scheduling of Manufacturing Process for a Plastic Industry in Nigeria .
Industrial Engineering Letters , 2.
Kaminsky , P., & Swaminathan , J. M. (2003). Effective Heuristics for Capacitated
Production Planning with Multiperiod Production and Demand with Forecast Band
Refinement. MANUFACTURING & SERVICE OPERATIONS MANAGEMENT , 6,
84–194 .
Goodwin , P., Önkal , D., & Thomson , M. (2009). Do forecasts expressed as prediction
intervals improve production planning decisions? European Journal of Operational
Research , 205, 195–201 .
Wang , R.-C., & Liang , T.-F. (2004). Applying possibilistic linear programming to
aggregate production planning. Int. J. Production Economics , 98, 328–341.
Byrne , P. J., & Heavey , C. (2006). The impact of information sharing and forecasting in
capacitated industrial supply chains: A case study . Int. J. Production Economics ,
420–437 .
Sujjaviriyasup, T., & Pitiruek, K. (2013). Hybrid ARIMA-support vector machine model for
agricultural production planning. Applied Mathematical Sciences , 2833-2840.
Tiacci, L., & Saetta, S. (2009). An approach to evaluate the impact of interaction between
demand forecasting method and stock control policy on the inventory system
performances. International Journal of Production Economics , 118, 63-71.
Yanradee, P., Pinnoi, A., & Charoenthavornying, A. (2001). Demand Forecasting and
Production Planning for Highly Seasonal Demand Situations: Case Study of a
Pressure Container Factory. ScienceAsia , 8.
Montenegro, A. (2011). Análisis de Series de Tiempo. Bogotá, Colombia: Editorial
Pontificia Universidad Javeriana.
Lamb, C. W., Hair, J. F., & McDaniel, C. (2011). Marketing. South-Western CENGAGE
Learning.
106
Chatfield, C. (1996). The Analysis Of Time Series: An Introduction. United Kingdom:
Chapman & Hall/CRC.
Chatfield, C., & Yar, M. (1988). Holt-Winters Forecasting: some practical isues (Vol. 37).
The Statistician.
Brown, R. G. (1963). Smoothing, Forecasting and Prediction. Englewood Cliffs, NJ:
Prentice-Hall.
West, M., & Harrison, P. J. (1989). Bayesian Forecasting and Dynamic Models. New York:
Springer-Verlag.
Montgomery, D. C., Johnson, L. A., & Gardiner, J. S. (1990). Forecasting and Time Series
Analysis (2ª edición ed.). New York: McGraw-Hill.
Gilchrist, W. (1976). Statistical Forecasting. London: Wiley.
Granger, C. J., & Newbold, P. (1986). Forecasting Economic Time Series (2ª edición ed.).
New York: Academic Press.
Gardner, E. S. (1985). Exponential Smoothing: the state of arte (Vol. 4). Journal of
Forecasting .
Pérez, F. O. (2007). Introducción a las series de tiempo. Métodos paramétricos (Vol. 1).
Medellin, Colombia: Universidad de Medellin.
Sule, D. R. (2001). Instalaciones de manufactura. é ico Thomson learning.
Niebel, F. (2009). Ingeniería Industrial. Métodos, estándares y diseño del trabajo. México:
McGraw-Hill Companies, Inc.
Kalenatic, D., López, C., & Gonzales, J. (2007). Modelo de ampliación de la capacidad
productiva . Revista Ingeniería .
Arbones, E. (1989). Logística Empresarial. Boixareu Editores.
Laumaille, R. (2000). Gestión de Stocks. GESTION 2000.
Guerrero, V. M. (2003). Anális estadístico de series de tiempo económicas (2ª edición
ed.). México: Thomson.
Anderson, O. D. (1976). Time Series Analysis and Forecasting (the Box-Jenkins
Approach). Londres: Butterworth.
Bartlett, M. S. (1946). On the theoretical specification of sampling properties of
autocorrelation time series. Journal of the Royal Statistical Society , B-8, 27.
Wold, H. (1954). A Study in the Analysis of Stationary Time Series. Almqvist & Wiksell.
Yaglom, A. M. (1955). Extrapolation, interpolation and filtering of stationary random
processes with rational spectral density. Tr. Mosk. Mat. Obs.
Pankratz, A. (1983). Forecasting with univariate Box–Jenkins models: concepts and
cases. New York: John Wiley & Sons.
107
Enders, W. (1948). Applied econometric time series (Second edition ed.). United States:
Wiley.
Fuller, W. A. (1996). Introduction to Statistical Time Series. John Wiley & Sons.
Hamilton, J. D. (1994). Time Series Analysis. Princeton University Press.
Brockwell, P. J., & Davis, R. J. (2002). Introduction to Time Series and Forecasting. Taylor
& Francis.
Dickey, D. A., & Fuller, W. A. (1979). Distribution of the Estimators for Autoregressive
Time Series with a Unit Root . Journal of the American Statistical Association 74
(366): 427–431. JSTOR .
Box, G. E., & Cox, D. R. (1964). An analysis of transformations. Journal of the Royal
Statistical Society , 211.
Fuller, W. A. (1976). Introduction to Statistical Time Series. New York: John Wiley.
Box, G., Jenkins, G., & Reinsel, G. (1994). Time Series Analysis: Forecasting and Control.
Wiley.
Tsay, R. S., & Tiao, G. C. (1985). Use of canonical analysis in time series model
identification. Biometrika 72 (2): 299-315.
Hannan, E. J., & Rissanen, J. (1982). Recursive estimation of mixed autoregression-
moving average order. 81-94.
Ljung, G. M., & Box, G. E. (1978). On a measure of lack of fit in time series model.
Biometrika 65 , 297.
Levenberg , K. (1944). A Method for the Solution of Certain Non-Linear Problems in Least
Squares. Quarterly of Applied Mathematics 2 , 164–168.
Marquardt, D. (1963). An Algorithm for Least-Squares Estimation of Nonlinear Parameters.
SIAM Journal on Applied Mathematics 11 (2) , 431–441.
Ansley, C. F., & Newbold, P. (1980). Finite Sample Properties of Estimators for
Autoregressive-Moving Average Models. Journal of Econometrics, 13 , 159–183.
Breusch, T. S. (1979). Testing for Autocorrelation in Dynamic Linear Models" . Australian
Economic Papers, 17 , 334–355.
Godfrey, L. G. (1978). Testing Against General Autoregressive and Moving Average Error
Models when the Regressors Include Lagged Dependent Variables . Econometrica,
46 , 1293–1302.
Jarque, C. M., & Bera, A. K. (1987). A test for normality of observations and regression
residuals. International Statistical Review 55 (2) , 163–172.
Fox, A. (1972). Outliers in Time Series. Journal of the Royal Statistical Society, B-34 , 350-
363.
Chang, I., & Tiao, G. (1983). Estimation of Time Series Parameters in the Presence of
Outliers. Technical Report 8, Statistics Research Center .
108
Chang, I., Tiao, G., & Chen, C. (1988). Estimation of Time Series Parameters in the
Presence of Outliers . Technometrics, 30, 2 , 193-204.
Tsay, R. (1988). Outliers, Level Shifts, and Variance Changes in Time Series. . Journal of
Forecasting, 7 , 1-20.
Chen, C., & Liu, L. (1993). Joint Estimation of Model Parameters and Outlier Effects in
Time Series. . Journal of the American Statistical Association, 88 , 284-297.
Shapiro, S. S., & Wilk, M. B. (1965). An Analysis of Variance Test for Normality (Complete
Samples). Biometrika , 52, 591-611.
Hillier, F. S., & Lieberman, G. J. (2010). Introducción a la Investigación de Operaciones
(Novena Edición ed.). McGraw Hill.
Taha, H. A. (2012). Investigación de Operaciones. Pearson.
Plossl, G. W. (1996). Control de la Produ i n de n entario ( era Edición ed.). é ico
Editorial Prentice Hall.
Mariño, H. (2001). Gerencia de Procesos. Alfaomega.
Goldratt, E. M. (1994). La Meta (Tercera edición ed.). Ediciones Castillo S.A .
109
10 ANEXOS
10.1 Caracterización de la Organización
10.1.1 Tabla de Referencias
REFERENCIA NOMBRE
TAMAÑO 250g
1280 LAVALOZA DESS IN LIMA LIMON 250 GR
1297 LAVALOZA DESS IN CHICLE 250 GR
7396 LAVALOZA CLEAN LINE CHICLE 12X4 UN 250 GR
7402 LAVALOZA CLEAN LINE LIMON 12X4 UN 250 GR
8216 LAVALOZA LIMON SURTIMAX 250 GRS X 32 UND
8224 LAVALOZA LIMON YEP X 250 GR X 48 UNDS
8231 LAVALOZA CHICLE YEP X 250 GR X 48 UNDS
TAMAÑO 500g
0702 LAVALOZA DESS IN CHICLE X 500 GR
0733 LAVALOZA DESS IN LIMON X 500 GR
1105 LAVALOZA DESS IN LIMA LIMON 500 GR
2287 LAVALOZA LIMON 500GR X 24 UNDS
2294 LAVALOZA CHICLE 500 GR X 24 UND
2300 LAVALOZA LIMON 500 GRS 12X2 UNDS
2317 LAVALOZA CHICLE 500 GR 12X2 UN
2830 LAVALOZA CONSUMO CHICLE CON GLIC 500 X24
2854
LAVALOZA CONSUMO CHICLE CON GLIC 500 2X12
2861
LAVALOZA CONSUMO LIMON CON GLICE 500 X24
2885
LAVALOZA CONSUMO LIMON CON GLIC 500 2X12
3329 LAVALOZA LIMON ALKOSTO X 500 GRS 1/24
3336 LAVALOZA CHICLE ALKOSTO X 500 GRS 1/24
3818 LAVALOZA LIMON ALKOSTO X 500 GRS 2/12
3825 LAVALOZA CHICLE ALKOSTO X 500 GRS 2/12
7198
LAVALOZA LIMON FOURPACKALK 500 6 X4 UNDS
7204 LAVALOZA CHICLE FOURPACK ALK 500 6X4
7372 LAVALOZA ARO CHICLE 500 PQT X 2 X12 UNDS
7389 LAVALOZA ARO LIMON 500 PQT X 2 X12 UNDS
7477 LAVALOZA LIMÒN SURTIMAX 500 2X9 UNDS
8223 LAVALOZA LIMON SURTIMAX 500 GR X 18 UNDS
8248 LAVALOZA LIMON YEP X 500 GR X 24 UNDS
8255 LAVALOZA CHICLE YEP X 500 GR X 24 UNDS
8262 LAVALOZA LIMON YEP 500 GR 12X2 UNDS
8279 LAVALOZA CHICLE YEP 500 GR 12X2 UNDS
TAMAÑO 1000g
0749 CREMA LAVALOZA ASTRAL LIMON 1000 GR X 6 2263 LAVALOZA DESS IN LIMON X 1000 GR 2270 LAVALOZA DESS IN CHICLE X 1000 GR 2324 LAVALOZA LIMON MAS X MENOS 1000 1X12 UN 2331 LAVALOZA ALOE VERA MAS XMENOS 1000 1X12 2348 LAVALOZA LIMON MAS X MENOS 1000 2X6
110
UNDS 2355 LAVALOZA ALOE VERA MAS X MENOS 1000 2X6
2847 LAVALOZA CONSUMO CHICLE CON GLIC 1000
X12
2878 LAVALOZA CONSUMO LIMON CON GLICE 1000
X12 3771 LAVALOZA LIMON ALKOSTO X 1000 GRS 2/6 3788 LAVALOZA LIMON ALKOSTO X 1000 GRS 1/12 3795 LAVALOZA CHICLE ALKOSTO X 1000 GRS 2/6 3801 LAVALOZA CHICLE ALKOSTO X 1000 GRS 1/12 7334 LAVALOZA ARO CHICLE 1000 X 1 X 12 UNDS 7341 LAVALOZA ARO LIMON 1000 X 1 X 12 UNDS 7355 CAJA LAVALOZA ARO CHICLE 1000 GR PQTX6X2 7358 LAVALOZA ARO CHICLE 1000 PQT X 2 X 6 UND 7362 CAJA LAVALOZA ARO LIMON 1000 GR 6X2 UND 7365 LAVALOZA ARO LIMON 1000 PQT X 2 X 6 UNDS 8230 LAVALOZA LIMON SURTIMAX 1000 GR X 12 UND 8286 LAVALOZA LIMON YEP X 1000 GR X 12 8293 LAVALOZA CHICLE YEP X 1000 GR X 12
TAMAÑO 1500g
0719 LAVALOZA DESIN LIMA LIMON 1500 GRX 12UND 0726 LAVALOZA DESS IN CHICLE 1500 GR X12 UNDS
TAMAÑO 3000g
1204 LAVALOZA DESSIN LIMA LIMON 3000 GR X6 UN 1211 LAVALOZA DESS IN CHICLE 3000 GR X 6 UNDS
10.1.2 Productos, Clientes y Participación
CLIENTE VENTAS
(EMBALAJES)
PARTICIPACIÓN PORCENTUAL
(%)
Almacenes Éxito (Surtimax) 1802 24.59
Almacenes YEP 295 4.03
Alkosto S.A 3773 51.49
Makro S.A.S 1455 19.86
Otros 3 0.04
Total General 7328
111
CIUDAD PARTICIPACIÓN EN
VENTAS (EMBALAJES)
PARTICIPACIÓN PORCENTUAL
(%)
Barranquilla 313 4.27
Bogotá 3945 53.83
Cali 415 5.66
Cartagena 173 2.36
Cúcuta 89 1.21
Ibagué 109 1.49
Medellín 549 7.49
Montería 36 0.49
Neiva 101 1.38
Pasto 302 4.12
Pereira 485 6.62
Santa marta 53 0.72
Tunja 84 1.15
Villavicencio 674 9.20
Total general 7328
Almacenes Éxito
(Surtimax) 25%
Almacenes YEP 4% Alkosto S.A
51%
Makro S.A.S 20%
Otros 0%
PARTICIPACIÓN VENTAS POR CLIENTES
Barranquilla 4%
Bogotá 54%
Cali 6%
Cartagena 2%
Cúcuta 1%
Ibagué 2%
Medellín 8%
Montería 0%
Neiva 1%
Pasto 4%
Pereira 7%
Santa marta 1%
Tunja 1%
Villavicencio 9%
PARTICIPACIÓN VENTA POR CIUDADES
113
10.1.5 Fichas Técnicas de Máquinas
Máquina Tipo A
La maquinaria tipo A hace referencia a una la máquina de moldeo por inyección HWA
CHIN 210 – HC Series la cual se detalla a continuación.
Ilustración 4 Moldeadora por inyección
Marca HWA CHIN
Origen Taiwan
Funcionamiento Microcomputer Toggle
Type Injection Molding
Machine
Tipo HC Series
Modelo 210
Capacidad Max. de
presión
140 kg/cm^2
Peso 6.8 ton
Potencia Motor 22 kw
Tasa de Inyección Small: 203 cm^3/s
Medium: 265 cm^3/s
Large: 348 cm^3/s
Velocidad de giro del
tornillo
0-259 rpm
Voltaje 220 v
Largo 4.9 m
Ancho 1.4 m
Alto 1.0 m
114
Máquina Tipo B
La máquina tipo B hace referencia a una Termoencogedora industrial de Cemapack ltda.
con las siguientes especificaciones
Ilustración 5 Termoencogedora 1
Marca Cemapack ltda.
Origen Bogotá Colombia
Funcionamiento Termoencogido
Modelo 4030
Potencia Motor 1/8 HP
Temperatura de función Aprox 200ºC
Velocidad de banda 80
Voltaje 220v
Largo 100 cm
Alto 70 cm
Entrada 30x40 cm
Salida 30x40 cm
Nº Resistencias internas 4
Ancho Banda Trans. 40 cm
Largo Banda Trans. 150 cm
Temperatura 0 a 300ºC
Velocidad 0 a 100 rpm
115
Ilustración 6 Termoencogedora 2
Marca Termo Express
Origen Bogotá Colombia
Funcionamiento Termoencogido
Tipo motor Inducción monofásica
Modelo 4040
Resistencias 8 laterales
Ventiladores 2
Velocidad Motor 3450 rpm
Temperatura de función 320ºC
Velocidad de banda 65-70
Voltaje 220 v
Altura 175 cm
Largo cabina 120 cm
Ancho cabina 70 cm
Entrada 40 x 40 cm
Salida 40 x 40 cm
Ancho Banda Trans. 43 cm
Largo Banda Trans. 270 cm
116
Máquina Tipo C
La máquina C hace referencia a una marmita o mezcladora con las siguientes
especificaciones técnicas
Ilustración 7 Marmita
Marca Desconocido
Origen Desconocido
Funcionamiento Mezcladora
Alto 69 cm
Diámetro 79 cm
Capacidad Max. Almacen. 300kg
Boquilla 3’’
Velocidad Motor 1100 rpm
Potencia Motor 2 HP
Marca Motor Siemens
Hz 60
Material Acero Inoxidable calibre
18 doble pared
Voltaje 220 v
117
Máquina Tipo D
La máquina Tipo D representa toda una estación de trabajo con dos máquinas por cada
una. La primera es la envasadora la cual está compuesta por 2 pistones neumáticos y un
embudo y la segunda es una báscula para pesar el contenido neto del envase.
Ilustración 8 Estación Envase-Pesa-Tapa
Marca TecnoEmbalajes SAS
Origen Bogotá, Colombia
Funcionamiento Dosificado y pesado
Material Acero inoxidable 18
Manguera 6 mm
Marca bascula BBG
Modelo Bascula DY-24
Válvula 1/8 dosificador
Número de pistones 2
Sensores 2 eléctricos
Voltaje 110 v
Largo 85 cm
Ancho 46 cm
Alto mesa 1 m
118
10.1.6 Representantes Tipo
Representante Tipo Precio de Venta Imagen
Jabón Lavaloza por
250g $ 790 x unidad
Jabón Lavaloza por
500g $ 1,700 x unidad
Jabón Lavaloza por
1000g $ 2,900 x unidad
Jabón Lavaloza por
1500g $ 4,600 x unidad
Jabón Lavaloza por
3000g $ 8,976x unidad
119
10.1.7 Diagrama de Operaciones
DIAGRAMA DE OPERACIONES PARA LA PRODUCCIÓN DE UNA UNIDAD DE JABÓN LAVALOZA 250g.
ALIANZAS Y/O INDUSTRIAS ALTA PUREZA S.A
1
ENVASE
Fajillar
Código de Colores
Fabricación Envase
Fabricación Jabón
Lavaloza 250g
Ácidos, BenzoatosCarbonatos, Silicatos,Fragancias y Colores
JABÓN LAVALOZA
4.70 s Mezclar
21.69 s Códificar
4 Envasar0.98 s
3
7 Empacar4.31 s
Caja
Etiqueta
6.21 s
Pesar1.42 s
5 Tapar0.82 s
1
N° de operaciones: 7
N° de inspecciones : 1
N° de operaciones inspecciones: 1
Situación: Actual
Elaborado por: Juan Camilo Díaz
AlistamientoEnvasado0.41 s 1
6 Secar72 s
120
DIAGRAMA DE OPERACIONES PARA LA PRODUCCIÓN DE UNA UNIDAD DE JABÓN LAVALOZA 500g.
ALIANZAS Y/O INDUSTRIAS ALTA PUREZA S.A
2
3
ResinaPigmento
ENVASE
Fajillar
5.64 s
Código de Colores
Fabricación Envase
Fabricación Jabón
Lavaloza 500g
Fabricar Envase(Cuerpo)
Ácidos, BenzoatosCarbonatos, Silicatos,Fragancias y Colores
JABÓN LAVALOZA
9.40 s Mezclar
42.23 s Códificar
6 Envasar1.57 s
5
9 Empacar6.42 s
Caja
Etiqueta
4.81 s Fabricar Envase (Tapa)
1
7.91 s
Pesar1.58 s
7 Tapar1.09 s
1
N° de operaciones: 9
N° de inspecciones : 1
N° de operaciones inspecciones: 1
Situación: Actual
Elaborado por: Juan Camilo Díaz
AlistamientoEnvasado0.81 s 1
8 Secar144 s
121
DIAGRAMA DE OPERACIONES PARA LA PRODUCCIÓN DE UNA UNIDAD DE JABÓN LAVALOZA 1000g.
ALIANZAS Y/O INDUSTRIAS ALTA PUREZA S.A
2
3
ResinaPigmento
ENVASE
Fajillar
5.75 s
Código de Colores
Fabricación Envase
Fabricación Jabón
Lavaloza 1000g
Fabricar Envase(Cuerpo)
Ácidos, BenzoatosCarbonatos, Silicatos,Fragancias y Colores
JABÓN LAVALOZA
18.81 s Mezclar
43.28 s Códificar
6 Envasar2.16 s
5
9 Empacar8.91 s
Caja
Etiqueta
4.81 s Fabricar Envase (Tapa)
1
8.80 s
Pesar2.26 s
7 Tapar2.024 s
1
N° de operaciones: 9
N° de inspecciones : 1
N° de operaciones inspecciones: 1
Situación: Actual
Elaborado por: Juan Camilo Díaz
AlistamientoEnvasado1.63 s 1
8 Secar288 s
122
DIAGRAMA DE OPERACIONES PARA LA PRODUCCIÓN DE UNA UNIDAD DE JABÓN LAVALOZA 1500g.
ALIANZAS Y/O INDUSTRIAS ALTA PUREZA S.A
1
ENVASE
Fajillar
Código de Colores
Fabricación Envase
Fabricación Jabón
Lavaloza 1500g
Ácidos, BenzoatosCarbonatos, Silicatos,Fragancias y Colores
JABÓN LAVALOZA
28.21 s Mezclar
23.35 s Códificar
4 Envasar3.05 s
3
7 Empacar8.96 s
Caja
Etiqueta
9.82 s
Pesar3.07 s
5 Tapar3.16 s
1
N° de operaciones: 7
N° de inspecciones : 1
N° de operaciones inspecciones: 1
Situación: Actual
Elaborado por: Juan Camilo Díaz
AlistamientoEnvasado2.44 s 1
6 Secar432 s
123
DIAGRAMA DE OPERACIONES PARA LA PRODUCCIÓN DE UNA UNIDAD DE JABÓN LAVALOZA 3000g.
ALIANZAS Y/O INDUSTRIAS ALTA PUREZA S.A
4 Fajillar
Código de Colores
Fajillado
Mezcado
Envasado
Ácidos, BenzoatosCarbonatos, Silicatos,Fragancias y Colores
JABÓN LAVALOZA
56.43 s Mezclar
53.84 s Códificar
2 Envasar5.87 s
1
7 Empacar7.17 s
Caja
Etiqueta
13.33 s
Pesar9.82 s
3 Tapar3.97 s
1
N° de operaciones: 7
N° de inspecciones : 1
N° de operaciones inspecciones: 1
Situación: Actual
Elaborado por: Juan Camilo Díaz
AlistamientoEnvasado4.88 s 1
6 Secar864 s
Lavaloza 3000g
124
10.1.8 División de Operaciones por Elemento
OPERACIÓN ELEMENTO
Moldear Automatizado -M- (500g y 1000g)
Almacenar base (envase)
Tomar base Apilar base
Ubicar en caja Transportar caja
Almacenar tapa (envase)
Tomar tapa Apilar tapa
Ubicar en caja Transportar caja
Fajillar
Tomar envase
Colocar etiqueta
Ubicar en máquina
Termo Sellar -M- Automatizado: 4 s/unidad
Recoger envase con etiqueta
Codificar
Tomar envase
Codificar
Apilar envase
Mezclar Jabón *
Alistar Marmita
Adicionar Agua
Adicionar sulfato 1
Adicionar sulfato 2
Adicionar sulfato 3
Mezclar
Adicionar Primer Carbonato de Calcio
Alistar segundo carbonato de calcio
Adicionar segundo Carbonato de Calcio
Alistar Carbonato de Sodio
Adicionar Carbonato de Sodio
Mezclar
Agregar Color
Alistar Tercer Carbonato de calcio
Adicionar Tercer Carbonato de Calcio
Alistar Cuarto Carbonato de Calcio
Adicionar Cuarto Carbonato de Calcio con agua
Mezclar
Adicionar primer Acido Sulfónico
Alistar Segundo Acido Sulfónico
Adicionar Segundo Acido Sulfónico
Alistar Quinto Carbonato de calcio
Adicionar quinto Carbonato de Calcio
Alistar Silicato y Cocoamida
Adicionar Silicato y Cocoamida
Alistar Glicerina y Aroma
Adicionar Glicerina y Aroma
Mezclar
Envasar
Alistar puesto de trabajo
Abrir válvula
Dejar llenar embudo
Tomar envase
Ubicar envase
Esperar llenado
125
Pasar producto a pesaje
Verificar Peso
Tomar producto
Pesar producto
Pasar producto a tapado
Tapar
Tomar producto
Tapar producto
Ubicar producto
Transportar producto a pasaje
Secar Esperar secado
Empacar
Alistar caja
Empacar
Sellar caja
Ubicar caja
126
10.2 Formas de Estudio de Tiempos
10.2.1 Formato estándar para la realización del estudio de Tiempos
Observaciones para la realización del estudio de tiempos Estudio Nº: 0 de Fecha: Página: 1 de
Operación: Operario: Analista: J.C Díaz
Nº de elemento -> 1 2 3 4 5 …
Descripción del elemento
Nota Ciclo RT TC TO TN RT TC TO TN RT TC TO TN RT TC TO TN RT TC TO TN RT TC TO TN
1
2
3
4
5
…
Resumen
TO Total
RT Global
TN Total
Nº de Observaciones
TN Promedio
% de Holgura
Tiempo Estándar Elemental
Número de Ocurrencias
TIEMPO ESTÁNDAR
Tiempo Estándar Total
Elementos Extraños Verificación de tiempos Resumen de holguras
Sim TC1 TC2 TO Descripción Tiempo de Terminación Necesidades Personales 5
A Tiempo de Inicio Fatiga básica 4
B Tiempo Transcurrido min Fatiga variable (de pie)
C TTAE
Especial
D TTDE % Holguras Total 9
E Tiempo Verificado Total
Observaciones:
F Tiempo Efectivo
G Tiempo Inefectivo
Verificación de Calificación Tiempo Registrado Total
Tiempo Sintético %
Tiempo No Contabilizado
Tiempo Observado % de Error de Registro
127
10.3 Suplementos Personales26
26 Véase: Introducción Al Estudio Del Trabajo O.I.T.; 4a. Edición Revisada 2004; Edit. Limusa,
Grupo Noriega Editores.
I P N - U P I I C S A
LABORATORIO DE INGENIERIA DE METODOS
SISTEMA DE SUPLEMENTOS POR DESCANSO EN PORCENTAJE DE LOS TIEMPOS BASICOS
H M1.- SUPLEMENTOS CONSTANTES
SUPLEMENTOS POR NECESIDADES PERSONALESSUPLEMENTO BASICO POR FATIGA
SUMA
549
74
11
2.- CANTIDADES VARIABLES AÑADIDAS AL SUPLEMENTO BASICO POR FATIGAA. SUPLEMENTO POR TRABAJAR DE PIEB. SUPLEMENTO POR POSTURA ANORMAL
I. LIGERAMENTE INCOMODAII. INCOMODA (INCLINADO)
III. MUY INCOMODA (ECHADO, Estirado)
C. LEVANTAMIENTO DE PESO Y USO DE FUERZA (TIRAR, EMPUJAR)2.5 ………………………………………………………….5.0 ………………………………………………………….7.5 ………………………………………………………….10 ………………………………………………………….12.5………………………………………………………….15 ………………………………………………………….17.5………………………………………………………….20 ………………………………………………………….22.5………………………………………………………….25 ………………………………………………………….30 ………………………………………………………….40 ………………………………………………………….50 ………………………………………………………….
D. DENSIDAD DE LA LUZ
I. LIGERAMENTE POR DEBAJO DE LO RECOMENDADO
II. BASTANTE POR DEBAJOIII. ABSOLUTAMENTE INSUFICIENTE
E. CALIDAD DEL AIREI. BUENA VENTILACION O AIRE LIBRE
II. MALA VENTILACION SIN EMANACIONESTOXICAS Y NOCIVAS
III. PROXIMIDAD DE HORNOS, ESCALERAS, ETC.F. TENSION VISUAL
I. TRABAJOS DE CIERTA PRECISIONII. TRABAJOS DE PRECISION FATIGOSOS
III. TRABAJOS DE GRAN PRECISION O MUY FATIGOSOS
2
027
0123468101214193358
025
05
5-15
025
4
137
123469
121518----
025
05
5-15
025
G. TENSION AUDITIVAI. SONIDO CONTINUOII. INTERMITENTE Y FUERTEIII. INTERMITENTE Y MUY FUERTEIV. ESTRIDENTE Y FUERTE
H. TENSION MENTALI. PROCESO BASTANTE COMPLEJOII. PROCESO COMPLEJO O
ATENCION MUY DIVIDIDAIII. MUY COMPLEJO
I. MONOTONIA MENTALTRABAJO ALGO MONOTONOTRABAJO BASTANTE MONOTONOTRABAJO MUY MONOTONO
J. MONOTONIA FISICAI. TRABAJO ALGO ABURRIDOII. TRABAJO ABURRIDOIII. TRABAJO MUY ABURRIDO
0255
14
8
014
025
0255
14
8
014
022
128
10.4 Muestreo Del Trabajo
La técnica de muestreo del trabajo es ampliamente utilizada como un método de análisis
del trabajo para la investigación de las proporciones del tiempo total al cual es dedicada
una actividad de una tarea o una situación de trabajo, así como la determinación del
grado de utilización de una máquina o un operario. La teoría detrás del muestreo del
trabajo se fundamenta en leyes de probabilidad que determinarán si un evento
determinado puede o no estar presente en un determinado instante de tiempo. (ver Niebel
(2012))
Sin entrar en teorías de muestro del trabajo27, se sabe que una variable aleatoria cuya
probabilidad de ocurrencia se determina por el número de éxitos en una secuencia de
ensayos de Bernoulli independientes entre sí, puede ser descrita por una distribución
Binomial con aproximación por muestras grandes a una distribución normal.
Dentro del uso del muestreo del trabajo con fines de determinación del grado de
utilización se ha diseñado un formulario en el que se registraron 16 estados posibles en
los que se podrían encontrar por un lado las 5 máquinas y por otro los 15 operarios por
etapa de proceso.
A continuación se presentan las fases en las que se llevó a cabo el muestreo del trabajo:
1. Fueron seleccionadas los posibles estado a observar dentro del estudio, para cada
recurso.
2. Se tomó una muestra preliminar de 40 observaciones, lo correspondiente a una
sección de trabajo de 5 horas, con el objetivo de determinar un valor estimado del
parámetro . Donde
3. Se calculó el número de observaciones requeridas para el muestreo, el cual es
una función de , del nivel de confianza determinado por la desviación normal
estándar y de los niveles de exactitud aceptada o también máximo error (en
porcentaje) tolerado , así
4. A continuación se preparó una programación de las observaciones tanto para el
recurso máquina como el recurso humano, de tal forma que sean aleatorias,
27 Para esto, véase Niebel(2012) y Chase et al (1997)
129
usando para ello la generación de números aleatorios que permitan construir el
programa de tiempos.
5. Se procedió con la observación, calificación y registro de la actividad en que el
trabajador o la máquina se encontraba en ese preciso instante de tiempo.
6. Se procedió a la construcción de la tabla que resume todos los eventos por
recurso para la determinación del grado de uso de cada uno de ellos.
130
10.5 Procedimientos Matemáticos
10.5.1 Desarrollo de Ecuación de Capacidad Disponible Recurso Hombre.
[
(
)]
Nomenclatura
Número de turnos en la etapa j
Días hábiles en el periodo de tiempo j
: Número de trabajadores en la etapa j
Número de máquinas en la etapa j
Horas por turno en la etapa j
Horas de descanso en la etapa j
Porcentaje de tiempo ocioso
Porcentaje de tiempo en mantenimiento
Sea
( ) ( )
considerando la capacidad real como: se tiene que
[ ]
factorizando y reordenando
sea se tiene que
131
10.6 Análisis de las Series de Tiempo
10.6.1 Funciones de Pérdida de Pérdida de Error de Pronóstico Simétricas
10.6.1.1 Mean Square Error (MSE) – Error Cuadrático Medio (ECM)
Fue introducido por Carl Friederich Gauss y es bastante utilizado en la literatura debido a
su conveniencia matemática. Presenta características importantes como lo es la
monotonicidad creciente, la simetría, la homogeneidad de grado dos y la diferenciabilidad
en todo su rango. Se presenta de la siguiente forma
( )
además puede llegar a ser subdividido en 3 diferentes partes a lo que se le llama
descomposición del MSE, donde se tiene
( )
( ) ( )
por estadística básica de definiciones de varianza y covarianza sabemos que
(
)
( ) ( )
( ) donde es el coeficiente de correlación de la
variable predicha y la real.
Tenemos entonces que al despejar los valores de interés, reemplazar y dividir todo
( ) nos queda que
(
)
( )
(
)
( )
( )
donde el primer término de la suma corresponde a la proporción del sesgo y mide que tan
lejos está la media de la serie original con la media del pronóstico, el segundo término
corresponde a la proporción de la varianza y mide si la volatilidad de mi predicción es
parecida a la volatilidad de los datos reales y por último el tercer término corresponde a la
proporción de covarianza y mide el residuo o los errores no explicados por las dos
anteriores, por tanto entre más pequeñas sean las proporciones de sesgo y varianza más
acertado estará el pronóstico.
132
Gráfica 6 Función de pérdida MSE
Fuente: Realizado por el autor
10.6.1.2 Mean Absolute Error (MAE) – Error Absoluto Medio (EAM)
Esta función de costos es monotonicamente creciente, simétrica, homogénea y
diferenciable en todo su rango a excepción de cuando .
( ) | |
Gráfica 7 Función de pérdida MAE
Fuente: Realizado por el autor
0
1
2
3
4
5
-2
-1,7
8
-1,5
6
-1,3
4
-1,1
2
-0,9
-0,6
8
-0,4
6
-0,2
4
-0,0
2
0,2
0,4
2
0,6
4
0,8
6
1,0
8
1,3
1,5
2
1,7
4
1,9
6
Co
sto
MSE
0
0,5
1
1,5
2
2,5
-2
-1,7
8
-1,5
6
-1,3
4
-1,1
2
-0,9
-0,6
8
-0,4
6
-0,2
4
-0,0
2
0,2
0,4
2
0,6
4
0,8
6
1,0
8
1,3
1,5
2
1,7
4
1,9
6
Co
sto
MAE
133
10.6.2 Funciones De Pérdida de Error de Pronóstico Asimétricas.28
10.6.2.1 Linex
La función de pérdida linex fue introducida por Varian (1974) y después analizada por
Zellner (1986), está dada por
{ ( )} [ ( ( )) ( ) ]
Esta función linex es llamada así puesto que presenta una forma casi lineal a un lado del
origen y una forma casi exponencial el otro lado del origen. Lo que le da un ponderación
del costo con mayor peso a los errores que están por el lado de exponencial que por el
lado lineal. El parámetro que juega el papel más importante en la función linex es el
parámetro , puesto que si entonces la función de pérdida de error de pronóstico
es aproximadamente lineal en la izquierda del origen y aproximadamente exponencial a la
derecha, de manera contraria, cuando entonces la función es aproximadamente
exponencial a la izquierda y aproximadamente lineal a la derecha. Si
entonces
( ) (( )
)
por lo tanto para un pequeño, el costo cuadrático está aproximadamente anidado
dentro del costo linex.
Zellner (1986) mostró que cuando la variable está distribuida normalmente, el valor
de predicción puede está dado por
donde representa la media muestral de la serie y la varianza poblacional, la cual
es reemplazada por la muestral en la práctica. Esto traería una función esperada de
costos igual a
( ( )) (
) ( )
28 Véase Christoffersen & Diebold (1997).
134
Gráfica 8 Función de pérdida LINEX
Fuente: Realizado por el autor
10.6.2.2 Linlin
Fue desarrollada por Granger (1969), donde consideró la función asimétrica de costos de
la siguiente manera
( ) [ | |
| |
Esta función de costos es llamada linlin debido a que es linealmente creciente en ambos
lados del origen con las pendientes y respectivamente. Por consiguiente el grado de
asimetría dependerá de la razón de las pendientes (i.e. / ( .
Tanto en la función de pérdida linlin como en la pérdida Linex es fácil permitir varianza
condicional dinámica cuando se construye la predicción óptima.
El valor esperado condicional el valor pronosticado en linlin está dado por
|
∫ |
∫ |
Se observa como la solución óptima del valor predicho está determinada por la
minimización del valor esperado de la función de costos
0
5
10
15
20
25
-2
-1,7
8
-1,5
6
-1,3
4
-1,1
2
-0,9
-0,6
8
-0,4
6
-0,2
4
-0,0
2
0,2
0,4
2
0,6
4
0,8
6
1,0
8
1,3
1,5
2
1,7
4
1,9
6
Co
sto
LINEX [δ1=0.8, δ2=9]
135
El parámetro determina la pendiente de la función de costos trucada para valores
cuando el pronóstico está por dejado del valor real, y el parámetro determina la
pendiente de la función de costos truncada cuando el pronóstico está por encima del valor
real. Tenemos entonces que las fórmulas para las expresiones truncadas del valor
esperado condicional estarían dadas por
{ | } ∫ |
{ | } ∫ |
Para esta función específica, Granger (1969) demostró que el pronóstico que minimiza la
pérdida esperada del valor pronosticado en el caso cuando la variable está distribuida
normalmente está dado por
(
)
donde es la media muestral de la serie de tiempo, es la desviación estándar
poblacional la cual es reemplazada por la muestral en la practica y es la función de
distribución acumulada de función de densidad normal estándar.
Gráfica 9 Función de pérdida LINLIN
Fuente: Realizado por el autor
012345678
-2-1
,79
-1,5
8-1
,37
-1,1
6-0
,95
-0,7
4-0
,53
-0,3
2-0
,11
0,1
0,3
10
,52
0,7
30
,94
1,1
51
,36
1,5
71
,78
1,9
9
Co
sto
LINLIN [δ1=3.5, δ2=2]
136
10.6.3 Descripción de los Datos
REFERENCIAS
AÑO MES R250 R500 R1000 R1500 R3000
2010
Enero 7056 7260 756 1080
Febrero 19056 10596 1740 1620
Marzo 21528 20532 1128 1716
Abril 15096 8964 1608 2298
Mayo
13800 15468 1584 2076
Junio 7776 22032 16380 2340 2442
Julio 5424 23592 17700 1068 2262
Agosto 4464 17400 24732 1500 1338
Septiembre 6048 13536 18924 1248 1644
Octubre 4992 12576 18096 1524 2262
Noviembre 4848 13824 11208 1596 1782
Diciembre 3792 10392 9528 1812 1458
2011
Enero 5856 14376 14196 2400 2844
Febrero 5616 15168 16080 2280 2178
Marzo 6240 28608 21492 1920 2256
Abril 2448 22008 7464 2208 2046
Mayo 4464 15240 7560 1680 1536
Junio 768 19992 7824 2400 1914
Julio 1200 23064 17064 3132 2970
Agosto 4752 21456 17520 2352 2880
Septiembre 1440 16008 9000 1620 1890
Octubre 3120 12984 10632 1356 1626
Noviembre 2640 6408 10236 2304 2490
Diciembre 3456 20352 9948 4260 4326
2012
Enero 7632 28794 11928 2400 1620
Febrero 21920 21030 12276 2652 3636
Marzo 4864 28662 11736 2424 2850
Abril 13360 29382 13320 2004 2652
Mayo 4992 16806 6660 2448 2694
Junio 15520 18654 7056 2424 3396
Julio 17184 37536 9456 3288 4146
Agosto 15680 91272 11460 2940 3570
Septiembre 13344 33708 3252 2340 2898
Octubre 47312 52776 4260 2136 3402
Noviembre 26288 49818 7104 2304 3426
Diciembre 24432 45600 7500 2148 3756
2013
Enero 18592 53910 14976 1932 2682
Febrero 54036 53682 17100 1908 3288
Marzo 12618 63186 15336 1848 3588
Abril 42862 72168 16788 3456 5322
Mayo 19360 39168 14076 2100 2994
Junio 46702 59850 23697 1740 2700
Julio 39866 114180 21060 2436 3378
Agosto 67768 61572 20286 2486 4140
Septiembre 68968 56190 33006 2700 2982
Octubre 50322 57264 19380 2604 2526
Noviembre 47584 17370 24252 2136 2958
Diciembre 68032 44676 33660 4992 5964
2014 Enero 36320 49932 13680 2424 1650
Febrero 73824 33906 14088 2076 2364
137
0
10000
20000
30000
40000
50000
60000
70000
80000
1 3 5 7 9 11 1 3 5 7 9 11 1 3 5 7 9 11 1 3 5 7 9 11 1
2010 2011 2012 2013 2014
R250
0
20000
40000
60000
80000
100000
120000
1 3 5 7 9 11 1 3 5 7 9 11 1 3 5 7 9 11 1 3 5 7 9 11 1
2010 2011 2012 2013 2014
R500
138
0
5000
10000
15000
20000
25000
30000
35000
40000
1 3 5 7 9 11 1 3 5 7 9 11 1 3 5 7 9 11 1 3 5 7 9 11 1
2010 2011 2012 2013 2014
R1000
0
1000
2000
3000
4000
5000
6000
1 3 5 7 9 11 1 3 5 7 9 11 1 3 5 7 9 11 1 3 5 7 9 11 1
2010 2011 2012 2013 2014
R1500
139
0
1000
2000
3000
4000
5000
6000
7000
1 3 5 7 9 11 1 3 5 7 9 11 1 3 5 7 9 11 1 3 5 7 9 11 1
2010 2011 2012 2013 2014
R3000
140
10.6.4 Esquema Metodología ARIMA
ETAPA MÉTODO HIPÓTESIS NULA (Ho)
Eta
pa
1:
Ide
nti
ficació
n d
el
po
sib
le m
od
elo
AR
IMA
Estadísticas Descriptivas e Histograma
¿La serie es ruido blanco?
Prueba Box-Ljung (Prueba Q) - Independencia Lineal No hay autocorrelación serial lineal (Ruido blanco) Breusch Godfrey LM - Independencia Lineal No hay autocorrelación serial lineal (Ruido blanco)
¿Cuál es el orden integración de la
serie? Pruebas de raíz unitaria
Dickey Fuller Aumentada - ADF La serie tiene raíz unitaria (Serie No Estacionaria) Phillips Perron - PP La serie tiene raíz unitaria (Serie No Estacionaria) MCO Generalizado con DF - DF-GLS La serie tiene raíz unitaria (Serie No Estacionaria) KPSS La serie es estacionaria alrededor de una tendencia Variance Ratio La serie es un paseo aleatorio exacto I(1)
¿Qué modelo escoger y cuál debería ser el
orden del modelo?
Función de Autocorrelación - ACF Función de Autocorrelación Parcial - PACF Método SCAN Método SMALL
Etapa 2: Estimación del modelo Mínimos Cuadrados Condicionales (CLS) , Mínimos Cuadrados Incondicionales (ULS) o Máxima Verosimilitud (ML)
Eta
pa
3:
Dia
gn
ós
tico
del m
od
elo
¿El modelo es estable?
Pruebas sobre las raíces de la ecuación auxiliar del modelo
Gráfica de Circulo Unitario Tabla de Raíces de la Ec. Auxiliar
¿El modelo está bien especificado?
Minimizar los criterios de información Akaike - AIC Hannan Quinn - HQ Schwartz - SC
Significancia estadística de los coeficientes de regresión Los coeficientes no son significativos estadísticamente Coeficiente de determinación R² y R² ajustado a imizar la erosimilitud logarítmica ʆ Minimizar la suma de residuos al cuadrado SRC Prueba BDS - Independencia Total El modelo original lineal está bien especificado
¿Los errores son ruido blanco?
Prueba Box-Ljung (Prueba Q) - Independencia Lineal No hay autocorrelación serial lineal (Ruido blanco) Breusch Godfrey LM - Independencia Lineal No hay autocorrelación serial lineal (Ruido blanco) Prueba BDS - Independencia Total La serie es iid, detecta dinámicas caóticas no aleatorias
¿Los errores se distribuyen
normalmente?
Histograma de frecuencias
Estadístico Jarque Bera La serie se distribuye normalmente
¿La varianza del error es
homocedástica?
Pruebas de ruido sobre los residuos al cuadrado ( ξ²)
Correlograma de ξ² ξ² est n no est n autocorrelacionados y por tanto no hay efecto ARCH hasta el rezago q Prueba de Multiplicador de LaGrange
Eta
pa
4:
Uso
de
l m
od
elo
;
Pre
dic
ció
n d
e
la d
em
an
da.
¿El modelo pronostica
adecuadamente?
Minimizar los errores de pronóstico
Error Cuadrado Medio - MSE Raíz cuadrada del MSE - RMSE Error Medio Absoluto - MAE o MAD Error Medio Porcentual Abs - MAPE Índice de desigualdad de Theil Asimétricas : LINLIN y LINEX
Tracking Signal - TS: control entre -3 y 3 desviaciones
141
10.6.5 Estabilización Varianza
Guerrero (2003) sugiere que el método para estabilizar la varianza de la serie debe llevar
a la elección de una potencia de tal manera que se satisfaga la relación
donde y representan la desviación estándar y la media de la variable
respectivamente y N el número total de observaciones con las que se cuenta, es decir la
dimensión del tiempo.
Para lograr encontrar la potencia que estabilice la varianza de la serie se deberá primero
dividir las N observaciones en H grupos donde cada uno deberá contener un total de
observaciones. En R se está dejando a un total de observaciones (para
) por fuera de los cálculos, bien sea al inicio o al final de la serie. Esto se realiza
con el propósito que exista homogeneidad entre el número de observaciones de los
grupos. A continuación se procede a estimar y de cada uno de los H grupos.
Una vez obtenidos estos dos parámetros se procede a reunirlos en una tabla que permita
observar el coeficiente de variabilidad CV de la relación a partir de la iteración de
potencias para cada uno de los H grupos. Como se mencionó, dicha relación debe
cumplir que sea igual a una constante, por lo que se busca la potencia que haga el menor
coeficiente de variabilidad y esa es catalogada como el para la transformación
estabilizadora de la varianza.
Potencia (
Grupo -1 -0.5 0 0.5 1
1
⁄
⁄
⁄
⁄
2
⁄
⁄
⁄
⁄
… …
⁄
⁄
⁄
⁄
… …
H
⁄
⁄
⁄
⁄
Coef. Variación
CV(-1) CV(-0.5) CV(0) CV(0.5) CV(1)
Tabla 57 Tabla Transformaciones de potencia
142
En la Tabla 56. Tabla de transformaciones de Potencia representa el promedio
ponderado de las observaciones del grupo H es decir
∑
√∑
se sabe además que el coeficiente de variación CV se calcula como la relación entre la
desviación estándar de todas las H observaciones para cada potencia y la media
, asi
se debe entonces encontrar el mínimo coeficiente de variación CV para satisfacer la
relación a partir de la aproximación de la relación
por lo tanto se tiene que la serie una vez transformada para estabilizar su varianza estará
dada por
{
la transformación logarítmica de para la potencia , se da cuando se observa el
limite cuando la tiende a cero de la transformación de potencia introducida por Box y
Cox (1964)
donde
10.6.6 Prueba Dickey Fuller Aumentada ADF
La prueba paramétrica ADF ha sido una de las más utilizadas en la práctica por su
eficiencia y simplicidad. Fue desarrollada por Dickey, D. A y Fuller, W. A. en 1979 y
presenta la siguiente estructura
143
∑
se tiene que las pruebas de hipótesis son
donde el termino de rezagos de la diferencia ∑ se agrega para que los residuos
resultantes sean ruido blanco, es decir que no tengan correlación serial entre ellos, de allí
el hecho que esta prueba sea del tipo paramétrica. Es importante recalcar que agregar
este término no cambia la dependencia de . El número de rezagos de se escoge o
bien corriendo la misma ecuación con un número lejano de rezagos y realizando una
iteración hacia atrás (Back Iteration Process) hasta que el último sea significativo y
encontrando ruido blanco por primera vez en el término de perturbación como se verá
en detalle más adelante, o por medio de criterios de información para la selección
automática como Akaike AIC, Schwarz SC, Hannan Quinn HQ el cual no siempre
garantiza ruido en .
Si entonces no depende del nivel anterior de la serie por lo que nada tiende a
devolver la serie cuando se aleja de su media y será por tanto una serie no estacionaria.
Para que la serie sea estacionaria se espera que , pues existirá un mecanismo que
devuelva la serie a su media si ésta se aleja.
Dickey y Fuller (1979) consideraron tres diferentes ecuaciones de regresión que pueden
ser utilizadas para llegar a probar la presencia de raíz unitaria. La principal diferencia
radica en la existencia de regresores determinísticos en (D5), la primera ecuación se
estima sin tendencia lineal ni corrimiento o constante, es decir (D5), la segunda se estima
únicamente con corrimiento , y la tercera con corrimiento y tendencia lineal , es
decir que se tendrían estas tres ecuaciones
∑
∑
∑
La hipótesis nula de se prueba con los mismos estadísticos de las tablas Fuller
(1976) mientras que las pruebas conjuntas de los coeficientes , y se prueban por
medio de estadísticos F llamados , y proporcionados por Dickey et al (1981)29.
Este estadístico toma el valor de
29 Las tablas Fuller (1976) y Dickey et al (1981) se pueden consultar al final de este documento en
el Anexo 10.11.1 Tablas Para Pruebas de Raíz Unitaria.
144
donde y corresponden a las sumas de residuos cuadrados de el modelo
restringido bajo Ho y no restringido respectivamente, corresponde al número de
restricciones, al número de observaciones usadas30 y a el número de parámetros
estimados en el modelo no restringido.
Se tiene entonces que
Modelo31
Hipótesis Estadístico
∑
∑
∑
Tabla 58 Resumen de test Dickey Fuller.
10.6.7 Prueba de Raíz Unitaria para la serie LR1000
Selección del número de rezagos en ADF
La selección del número de rezagos caracteriza un problema vital en las pruebas de raíz
unitaria ADF. En general, muy pocos rezagos pueden conllevar a que los residuos de la
regresión no se comporten como ruido blanco y por tanto el modelo no este capturando el
proceso real, mientras que una sobre dimensión de los rezagos hace que se reduzca la
potencia estadística del test a rechazar la hipótesis nula por la pérdida de grados de
libertad.
En pro de obtener una ecuación ADF con un número adecuado de rezagos se procedió32
a comenzar con un número relativamente alto de rezagos (en este caso 10) y se probó
la significancia estadística del último rezago por medio de el estadístico t. Si éste no es
significativo a un nivel de significancia dado, se reestima la regresión utilizando
rezagos, y se prueba de nuevo la significancia. Este proceso se detiene hasta que el
último rezago sea significativo estadísticamente y además que (y muy importante) se
obtenga por primera vez ruido blanco en el término de perturbación aleatorio Este
30 Se dice que es T y no N puesto que no representa el total de la muestra sino el número de datos
utilizados, el cual varía dependiendo del número de rezagos incluidos, y el orden de integración de la serie original. Es decir es el número de observaciones realmente utilizadas. 31 Tomado de Enders (1948, p.183). Tabla 4.2. 32 Siguiendo las indicaciones propuestas por Enders (1948)
145
último diagnóstico se probó por medio del estadístico Q de Ljung-Box y observando la
ACF de los residuos.
Para el ejemplo con la serie R1000, se tiene que el proceso generador de datos es
completamente desconocido, por lo que existen dos posibles caminos acorde a la serie de
tiempo, el primero que la serie pueda ser estacionaria en tendencia (TS), y el segundo
que el proceso de raíz unitaria contenga un término de corrimiento. Por consiguiente, el
planteamiento de la hipótesis nula determina que el proceso tiene raíz unitaria con
corrimiento, mientras que la hipótesis alterna establece que el proceso es TS, es decir
(D7).
Si no se tiene raíz unitaria se rechazará la hipótesis nula que y por tanto el proceso
es estacionario en tendencia, como lo plantea (D7).
Se estimó entonces la ecuación
∑
para un desde 1 hasta 10, en cada estimación se muestra el criterio de información
Akaike AIC, el criterio de Schwarz SIC, el valor del coeficiente de interés , su respectivo
estadístico t, y los valores de los estadísticos y , en concordancia a lo presentado en
la Tabla 57. Resumen de test Dickey Fuller.
AIC SIC t-stat 33
1 1.116478 1.272412 -0.406398 -2.946307 2.909644 4.352486
2 1.105032 1.301856 -0.331069 -2.211261 1.678211 2.516147
3 1.134791 1.373309 -0.333057 -2.076782 1.465419 2.158355
4 1.126266 1.407302 -0.244145 -1.450858 0.817609 1.19328
5 1.159157 1.483555 -0.308021 -1.722956 1.100391 1.644226
6 1.208023 1.576646 -0.344138 -1.772924 1.259111 1.888333
7 1.218849 1.632580 -0.440252 -2.113086 1.8221 2.728326
8 1.268110 1.727849 -0.537423 -2.272416 2.124501 3.181019
9 1.354340 1.861004 -0.536935 -1.965401 1.693466 2.54007
10 1.425883 1.980403 -0.585109 -1.876413 1.376393 2.053814
Tabla 59 Tabla de prueba de Dickey Fuller Aumentada para LR1000
Como se puede observar en la anterior tabla, el criterio de información de Akaike (AIC)
selecciona un número de rezagos igual a 2, mientras que el criterio de información de
Schwarz (SIC) selecciona un número de rezagos de 1, demostrando así que el criterio
33 Valores calcularos como
y
donde la hipótesis nula que
determina a está dada como y al menos un término diferentes de
cero. Mientras que la hipótesis nula que determina a está dada como y la el proceso es estacionario en tendencia TS es decir sigue un proceso tipo (D7). Las tablas de contraste de estos valores se encuentran en Dickey, David y Fuller (1981).
146
SIC tiende a escoger un modelo más parsimonioso que el AIC. Se tiene que al 5% de
significancia el valor critico en las tablas Fuller (1976) para la hipótesis nula de en
una muestra de 50 observaciones es de -3.50. Por lo tanto, los valores de escogidos por
ambos criterios de información son mayores que el valor critico, por lo que no se puede
rechazar la hipótesis nula de raíz unitaria.
Ahora bien, es más factible y confiable utilizar el algoritmo de propagación hacia atrás,
que permite encontrar el número de rezagos a través de la significancia del último y la
condición esencial de ruido blanco sobre el término de perturbación. En este tipo de
prueba se utilizan los estadísticos t y/o F para determinar el valor de , por lo tanto se
estimó la regresión (D7) para un igual a 10 donde se obtuvo que34
Al realizar la prueba t sobre el último coeficiente de se puede observar que
el valor de es menor que 10 rezagos, pues es insignificantico estadísticamente. Al
realizar la prueba conjunta para probar se obtuvo un estadístico F de 0.060
con un valor de probabilidad de 0.9417 con lo que se dice que se pueden eliminar los
rezagos 10 y 9, de manera similar se realizó con los demás rezagos, donde se llegó a
obtener los siguientes resultados
Ho F-Stat P-Value
0.060190 0.9417
0.322641 0.8089
0.417666 0.7944
0.383883 0.8552
0.373566 0.8891
0.539601 0.7965
0.482847 0.8571
0.520186 0.8465
0.468940 0.8849
Tabla 60 Pruebas F para escoger el número de rezagos en ADF
Como se puede observar, el estadístico F, no es permite rechazar la hipótesis nula ante la
incorporación iterada de ninguno de los rezagos. Lo que nos quiere decir esto es que la
prueba de ADF, la cual formalmente debería ser renombrada simplemente como DF pues
no e iste la parte “aumentada” a tra és de rezagos de las diferencias debería ser
estimada sin ningún componente rezagado de la primera diferencia del logaritmo natural.
Es decir el modelo
34 Estadísticos t en paréntesis (*)
147
Donde los estadísticos t se presentan en paréntesis redondo. La misma metodología de
análisis para la escogencia de los rezagos a partir de la propagación hacia atrás se llevó a
cabo para las demás series, donde se obtuvieron los siguientes resultados35.
Ljung-Box Q Stat para
Serie 3 6 9 12
LR250
1
2.759**
(2.492)
0.036**
(2.644)
-0.398**
(-2.612)
-0.446*
(-3.287) 0.914 0.955 0.615 0.830
TR500
0
0.005*
(4.421)
-5.9E-05*
(-2.986)
-0.666*
(-4.99) - 0.693 0.880 0.953 0.985
LR1000
0
4.053*
(3.62)
0.001
(0.273)
-0.430*
(-3.6) - 0.924 0.628 0.693 0.825
LR1500
7
4.071
(1.591)
0.002
(0.478)
-0.530
(-1.526)
-0.353**
(-2.40) 0.802 0.960 0.534 0.704
LR3000
0
7.419*
(6.78)
0.014*
(3.732)
-0.988*
(-6.73) - 0.407 0.271 0.387 0.543
Tabla 61 Resultados propagación hacia atrás Lag Length Choice
La tabla 60 debe ser entendida de la siguiente manera. La primera columna contiene el
nombre de la serie y el tipo de estadístico contrastado en las tablas Fuller (1976) en
donde simboliza que se probó todas las series con constante y tendencia, la segunda
columna presenta el número de rezagos escogidos después de realizar la metodología de
propagación hacia atrás, la tercera columna muestra el valor estimado del corrimiento, la
cuarta columna muestra el coeficiente estimado asociado al término de tendencia, la
quinta columna presenta el coeficiente asociado al término del primer rezago de la
variable dependiente es decir el coeficiente de interés para la prueba de raíz unitaria, la
sexta columna presenta el valor del coeficiente asociado al último rezago que dio
significativamente diferente de cero una vez realizado el método de propagación hacia
atrás es decir al rezago indicado en la segunda columna y por último, de las columnas
siete a la diez se presentan los valores de probabilidad de la prueba portmanteau de
Ljung-Box para los rezagos 3, 6, 9 y 12, la cual muestra como el término de perturbación
no guarda autocorrelación serial entre sus rezagos y por tanto son un proceso de ruido
blanco.
Como se mencionó anteriormente, las pruebas ADF pueden ser desarrolladas incluyendo
diferentes especificaciones en la ecuación que las representa. Esas especificaciones
pueden ser solo un intercepto , una tendencia e intercepto , o ninguna de las dos.
Esta parte es fundamental puesto que si la prueba llegase a estar mal especificada, el
35 Estadístico t en paréntesis (*), * simboliza significancia al 1%, ** al 5% y *** al 10% y corresponde a el coeficiente asociado al último rezago significativo y que cumple con ruido blanco en el error.
148
poder estadístico36 puede llegar a caer casi a cero. El graficar la serie y observar sus
Funciones de Autocorrelación (ACF), en muchas ocasiones es útil a la hora de indicar si
existe o no la presencia de componentes determinísticos que deberían ser incluidos en la
prueba. Sin embargo, Enders (1948, p. 210) recomienda realizar el siguiente
procedimiento para las pruebas de raíz unitaria:
1. Estimar el modelo menos restringido, es decir con intercepto y tendencia en forma
transformada de varianza y luego comprobar la significancia estadística de
probando la hipótesis nula por medio del valor de probabilidad de los
valores críticos de Fuller (1976). Si los resultados muestran que no se rechaza la
hipótesis nula, es decir los datos siguen un proceso no estacionario (i.e. el valor
absoluto del estadístico t computado en la regresión es menor que el valor
absoluto del valor crítico de la tabla Fuller (1976), o lo que es lo mismo, si la
probabilidad es mayor que algún nivel se significancia predicho), entonces es
necesario saltar al paso dos y comprobar la significancia del componente de
tendencia en la regresión de prueba. Si la hipótesis nula es rechazada se termina
el proceso y no se concluye que la secuencia { } no contiene raíz unitaria.
2. Si la hipótesis nula no es rechazada, es necesario entonces determinar si se
incluyeron más componentes determinísticos de los que deberían haberse
incluido. Esto debido a que la presencia de estos regresores puede reducir la
potencia estadística de la prueba. Por lo tanto, se procede a probar la significancia
del término de tendencia al contrastar la hipótesis usando el
estadístico de las tablas Dickey, et al (1981). Si el coeficiente que acompaña a
la tendencia no es significativo se salta al paso 3. Por el contrario, si es
significativo entonces se prueba de nuevo por la presencia de raíz unitaria usando
una distribución normal estándar. Si la hipótesis nula de raíz unitaria es rechazada,
entonces se termina el proceso y se concluye que la serie no tiene raíz unitaria. De
lo contrario, se concluye que la serie tiene raíz unitaria.
3. Se estima entonces el modelo sin tendencia . Se prueba por la presencia de raíz
unitaria contrastando el estadístico t que acompaña a con los valores críticos de
Fuller (1976). Si la hipótesis nula es rechazada se concluye que la serie no tiene
raíz unitaria. Caso contrario, se prueba la significancia del término de la constante
probando la hipótesis nula usando el estadístico de las tablas
Dickey, et al (1981). Si este corrimiento no es significativo, es decir que no se
rechaza la hipótesis nula, se procede a el paso 4. Si por el contrario, la hipótesis
nula es rechazada, es decir que el corrimiento es significativo, se prueba por la
presencia de raíz unitaria usando la distribución normal estándar. Si la hipótesis
nula de raíz unitaria es rechazada entonces se concluye que la serie no tiene raíz
unitaria y por tanto es estacionaria. Caso contrario, se dice que la serie tiene raíz
unitaria.
36 Probabilidad de cometer el error tipo II o probabilidad de no rechazar Ho cuando esta es falsa.
149
4. Se estima el modelo sin constante ni tendencia. Se contrasta el estadístico t que
acompaña a con los valores críticos de Fuller (1976) para determinar la
presencia de raíz unitaria. Si la hipótesis nula de raíz unitaria es rechazada, se
concluye entonces que la serie no tiene raíz unitaria, caso contrario se concluye
que la serie si tiene raíz unitaria.
Aplicando estos pasos a la serie de interés LR1000 se tendrá que estimar primero el
modelo menos restringido, es decir la ecuación (D8) la cual contiene corrimiento y
tendencia lineal. Es esta ecuación, el estadístico t toma el valor de -3.599 para la hipótesis
nula , es decir la presencia de raíz unitaria. Se debe entonces contrastar este
estadístico de prueba con los valores críticos de Fuller (1976) los cuales reportan para un
total de 50 observaciones con tendencia e intercepto un valor de -3.18, -3.50 y -3.80 para
significancias del 10%, 5% y 2.5% respectivamente. Esto quiere decir que la probabilidad
toma un valor entre 0.025 y 0.05. A continuación, se presenta la tabla de resultados para
este primer paso, la cual fue obtenida por medio del complemento ASTEX, este
componente se explicará más adelante en esta sección.
Prueba: Dickey-Fuller Aumentada {Con Constante, Con Tendencia}
Hipótesis Nula: LR1000 Tiene raíz unitaria (No estacionaria)
Variable: LR1000
Rezagos: 0
23/03/2014 22:10
Estadístico Prob.*
Estadístico de prueba Dickey-Fuller Aumentado -3.59978 (0.025, 0.05]
Valores Críticos 1% -4.15
2% -3.80
5% -3.50
10% -3.18
*Basado en valores críticos MacKinnon (1996). Para una
distribución del estadístico t
Tabla 62 Regresión de prueba ADF LR1000 con constante y tendencia ASTEX
Bien se puede concluir que al 5% se rechaza que la serie tenga raíz unitaria y por tanto el
proceso culminaría, o ser más estricto y continuar a un nivel del 1% (o incluso 2.5%)
donde no es posible rechazar la hipótesis nula que la serie tiene raíz unitaria. Sin
embargo, debido al tamaño tan pequeño de la muestra y que la potencia estadística se
pudo haber reducido aún más debido a la potencial presencia de uno o ambos
componentes determinísticos innecesarios en (D8) es recomendable continuar al
siguiente paso de la prueba.
En el paso dos del procedimiento es necesario predeterminar si se sobreparametrizó
innecesariamente la estimación por medio de algún componente determinístico adicional.
150
Se procede entonces a probar la significancia de la presencia del componente de
tendencia lineal bajo el contraste de la prueba usando el estadístico de las
tablas Dickey, et al (1981). Para ello se estima el modelo no restringido, es decir (D8) se
guarda la suma de residual cuadrada y se estima el modelo bajo la restricción de la
hipótesis nula, es decir el modelo únicamente con constante y se
guarda el . Con estos dos valores se construye el estadístico F como sigue
donde es igual a 2 restricciones impuestas en la hipótesis nula, es igual a 49
observaciones utilizadas y es igual a 3 parámetros estimados en el modelo no
restringido (D8). Se tendrá entonces que
Este valor de se contrasta con los valores críticos de Dickey, et al (1981) los cuales
toman el valor de 5.61 y 6.73 para niveles de significancia del 10% y del 5%
respectivamente, con un tamaño de muestra igual a 50 observaciones. Se dice entonces
que al 5% de significancia el valor de es más pequeño que el valor critico reportado al
0.1 de significancia y por tanto no es posible rechazar la hipótesis nula ,
procediendo así a quitar la tendencia de (D8) y saltando al paso 3. El modelo reestimado,
ahora sin tendencia lineal se presenta a continuación
al cual se le realizó el mismo procedimiento de propagación hacia atrás para determinar el
número de rezagos que deberían ser incluidos, el cual arrojó de nuevo cero. Se puede
observar como los coeficientes entre (D9) y (D8) no presentan una variación tan
significativa entre modelos, lo que determina que el término de tendencia lineal no
aportaba relevancia en el cambio de la serie. Se tiene entonces que el estadístico t
asociado a la prueba toma ahora el valor de -3.63, dado que el valor critico
reportado para 50 observaciones solo con constante corresponde a -3.58 para el 1% se
dice que se rechaza la hipótesis nula a cualquier nivel de significancia puesto que el valor
del estadístico de prueba es menor que cualquier valor crítico y por tanto se concluye que
la serie no tiene raíz unitaria, es decir que y además tiene corrimiento
significativo, determinado por mayor que el valor critico 4.86 a una
significancia del 5% lo que permite rechazar que
151
Prueba: Dickey-Fuller Aumentada {Con Constante, Sin Tendencia} Hipótesis Nula: LR1000 Tiene raíz unitaria (No estacionaria) Variable: LR1000 Rezagos: 0 23/03/2014 22:16
Estadístico Prob.* Estadístico de prueba Dickey-Fuller Aumentado -3.638379 Menor a 0.01
Valores Críticos 1% -3.58 2.5% -3.22 5% -2.93 10% -2.60 *Basado en valores críticos MacKinnon (1996). Para una
distribución del estadístico t Tabla 63 Regresión de prueba ADF LR1000 con constante sin tendencia ASTEX
10.6.8 Función de Autocorrelación ACF y Función de Autocorrelación Parcial PACF
Para poder medir la covarianza se debe tener en cuenta que en la teoría su valor
estadístico mide el grado de variabilidad conjunta entre dos variables aleatorias diferentes
respecto a su media , sin embargo en el caso de
la serie de tiempo contamos con una única variable por lo que su covarianza estará
determinada entre un dato y otro rezagado o adelantado periodos de tiempo dentro de la
misma serie, tenemos entonces que
La anterior ecuación representa la función de autocovarianza de la serie , si
suponemos que la serie de tiempo es estacionaria tendríamos entonces que su media no
cambia en el tiempo ( ) por lo que quedaría:
( )( )
Existen algunas consideración a tener en cuenta en la función de autocovarianza:
Una serie que presente ruido blanco tiene la característica que sus
autocovarianzas son cero para todos los rezagos o adelantos pues no hay
relación entre los datos de la serie en promedio
La autocovarianza del rezago es la misma que la del adelanto del mismo . i.e.
.
La autocovarianza de un rezago es igual a la varianza de la variable
estocástica. i.e. .
En la práctica ya que no contamos con el verdadero valor de la media poblacional de la
variable, , es necesario estimarlo con la media muestral conocida como . Con lo que
obtendríamos una ecuación de la siguiente forma:
152
∑ | |
| |
En las series de tiempo es bastante común perder datos puesto que en un modelo que
utilice rezagos se estará perdiendo una cantidad de datos. Por consiguiente al igual que
en cortes transversales entre mayor sea la cantidad de periodos en consideración más
consistente será el modelo.
Una vez tenemos la función de autocovarianza estimada es fácil y mucho más útil el
construir la Función de Autocorrelación ACF la cual está dada como la covarianza sobre
la raíz cuadrada de la multiplicación entre las varianzas y está normalizada entre 0 y 1 lo
cual hace mucho más fácil su interpretación (Wooldridge, 2009):
√
Si se supone que la serie es estacionaria se tiene que , que como se
dijo anteriormente es igual a la función de autocovarianza con un , por lo que la
función de autocorrelación quedaría determinada por:
Teniendo en cuenta esto podemos notar varias cosas: la función de autocorrelación
únicamente se debería analizar profundamente antes de determinar si la serie es
estacionaria, cuando el rezago es tendríamos que la autocorrelación es igual a 1 por
lo que en la mayoría de casos no se tiene en cuenta este rezago en la función y por ultimo
notamos que la autocorrelación bajo estacionalidad está midiendo cuan correlacionada
esta la variable en el rezago de la variable sin rezagos .
La ACF se dibuja en una gráfica de en el eje de las ordenadas y los rezados en el
eje de las abscisas, este tipo de gráficas lleva el nombre de correlograma y es la principal
guía objetiva para determinar un modelo posible para la serie de tiempo. En el
correlograma se evidencian dos líneas de significancia usualmente punteadas las cuales
determinan el intervalo de confianza y están determinadas por √ ⁄ , donde es el
número de observaciones. Este correlograma entonces nos ayudara a determinar si la
serie es o no ruido blanco, de serlo no habrá ninguna línea que sea significativa (es decir
que sobresalga por encima de las líneas punteadas del intervalo de confianza) y no será
posible realizar un modelo ya que el pronóstico del siguiente evento no está determinado
por ningún evento anterior, esto se mira en el valor de probabilidad asociado a la prueba
de hipótesis de las autocorrelaciones, donde la hipótesis nula dice que la serie es ruido
blanco , por lo que si el valor de probabilidad es muy alto no se podrá
rechazar que la serie es ruido.
153
La Función de Autocorrelación Parcial PACF es una herramienta que ayuda en el proceso
de identificación ya que no es posible hacerlo únicamente con la ACF. Como lo expone
Guerrero, la PACF es útil puesto que adquiere varias características las cuales dependen
del orden del proceso generador de datos y el tipo de parámetros involucrados. La PACF
se define como la autocorrelación serial que existe entre un periodo y uno
eliminando o extrayendo todos los posibles efectos de otros rezagos entre dichos
periodos de tiempo.
Las diferentes interpretaciones de los comportamientos de la ACF y PACF conllevan a
identificar correctamente el orden de los parámetros p y q del componente Autoregresivo
y de Media móvil respectivamente. Por ejemplo, para una serie estacionaria, la ACF suele
converger a cero muy rápidamente. Otros comportamientos típicos de la ACF y PACF
para procesos AR, MA y ARMA se presentan en la siguiente tabla
Proceso ACF PACF
AR(p) Convergencia asintótica a cero. Tiene p autocorrelaciones significativas (distintas de
cero) únicamente.
MA(q) Tiene q autocorrelaciones
significativas (distintas de cero) únicamente.
Convergencia asintótica a cero.
ARMA(p,q)
Comportamiento irregular de las primeras q autocorrelaciones y
después converge a cero asintóticamente.
Sucesión infinita convergente
asintóticamente a cero.
Tabla 64 Comportamientos típicos de ACF y PACF
Tomado y modificado de Guerrero(2003)
10.6.9 Metodologías SCAN, ESACF y MINIC37
Método SCAN Smallest CANonical correlation
El método SCAN o de correlación canónica más pequeña por sus siglas en inglés, tiene el
objetivo de identificar tentativamente el orden de un proceso ARMA estacionario o no
estacionario. Esta técnica fue propuesta por Tsay y Tiao (1985) y después Box et al
(1994) y Choi (1990) brindaron descripciones útiles de su algoritmo.
Dado un proceso estacionario o no estacionario de serie de tiempo con la
sustracción de su media (mean corrected) con un verdadero orden
autoregresivo igual a , y con un verdadero orden de promedio móvil igual a , es
posible utilizar el método SCAN para encontrar los eigenvalores ( o valores propios) de la
matriz de correlación del proceso ARMA.
37 Las metodologías SCAN, ESACF y MINIC fueron tomadas de SAS 9.1. User Guide con
traducción no oficial realizada por el autor.
154
Para la prueba de un proceso autoregresivo de orden y un proceso de
media móvil , se deben seguir los siguientes pasos.
1. Sea se calcula la siguiente matriz cuadrada de
dimensiones .
(∑
)
(∑
)
(∑
)
(∑
)
donde va desde hasta .
2. Se procede a buscar el eigenvalor más pequeño, de y su
correspondiente eigenvalor normalizado,
. La
correlación canónica estimada seria igual a dicho valor propio mas pequeño
.
3. Usando como coeficiente de AR( ), se obtienen lo residuos de
a , dados por la siguiente formula:
.
4. De la autocorrelación muestral de los residuos, , se aproxima el error
estándar de la correlación canónica cuadrada estimada por
donde ∑
Se tiene entonces que el estadístico de prueba a ser usado como criterio de información
es
(
)
el cual se distribuye asintóticamente como una Chi-cuadrada con un grado de libertad
solo si y o si y . Para y se dice que hay más
155
de una correlación canónica teórica igual a cero entre y . Dado que
son las correlaciones canónicas más pequeñas para todo los percentiles de
son menores que los de la ; por ello, Tsay y Tiao (1985) establecieron que es seguro y
prudente asumir una . Para y no se pueden hacer conclusiones acerca de
la distribución de
La tabla SCAN (ver Tabla 64) es construida usando para determinar cual de los
eigenvalores es significativamente diferente de cero. Los órdenes del ARMA son
identificados tentativamente al buscar un patrón rectangular máximo el cual las
son insignificanticas para todos los ordenes de prueba y . Puede que
exista más de un par de valores que permitan la obtención de dicho rectángulo.
En este caso se debería aplicar el principio de parsimonia y el número de ítems
insignificanticos en el patrón del rectángulo debería ayudar a determinar el orden. La
Tabla 65 representa un ejemplo de un patrón rectangular teórico asociado a una modelo
ARMA(2,2).
MA
AR 0 1 2 3 . .
0 C(0,0) C(0,1) C(0,2) C(0,3) . .
1 C(1,0) C(1,1) C(1,2) C(1,3) . .
2 C(2,0) C(2,1) C(2,2) C(2,3) . .
3 C(3,0) C(3,1) C(3,2) C(3,3) . .
. . . . . . .
. . . . . . .
Tabla 65 Tabla SCAN
MA
AR 0 1 2 3 4 5 6
0 * X X X X X X
1 * X X X X X X
2 * X 0 0 0 0 0
3 * X 0 0 0 0 0
4 * X 0 0 0 0 0
X = Termino significativo
0=Termino no significativo
* = No patrón
Tabla 66 Tabla Teórica SCAN para un proceso ARMA(2,2)
Como se puede observar, para un proceso ARMA (2,2) el patrón de términos
insignificanticos comenzaría en la columna 2, fila 2 según el método SCAN.
Método ESACF Extended Sample Autocorrelation Function
El método ESACF o método de función de autocorrelación muestral extendida por sus
siglas en inglés, es también un método para identificar tentativamente el orden de un
156
proceso ARMA y está basado en la estimación de los parámetros autoregresivos por
medio de mínimos cuadrados iterados. La técnica fue propuesta por Tsay y Tiao (1985) y
más adelante Choi (1990) propuso una descripción útil para su algoritmo.
Dado un proceso estacionario o no estacionario de serie de tiempo con la
sustracción de su media (mean corrected) con un verdadero orden
autoregresivo igual a , y con un verdadero orden de promedio móvil igual a , es
posible utilizar el método ESACF para estimar los órdenes desconocidos y por
medio del análisis de las funciones de autocorrelación asociados con los filtros de las
diferentes series de la forma
∑
donde representa el operador de rezago, también llamado L. Además
representa la prueba para el orden autoregresivo y para el promedio
móvil.
son los parámetros a estimar del proceso autoregresivo bajo el supuesto que
la serie sigue un proceso .
Para modelos puramente autoregresivos es decir donde el orden , se usa Mínimos
Cuadrados Ordinarios (MCO) para estimar consistentemente . Para modelos con
ambos componentes , los estimadores consistentes son obtenidos por medio
de la formula iterada de recursión de mínimos cuadrados, la cual es inicializada por los
estimadores de un autoregresivo puro:
(
)
el j-esimo rezago de la función de autocorrelación muestral de la serie filtrada,
, es la
función de autocorrelación muestral extendida, y es denotada como (
)
El error estándar de es calculado de la manera usual por medio de la aproximación
de Bartlett de la varianza de la ACF muestral.
∑
Si el modelo es un proceso , entonces el la serie filtrada
sigue un
modelo para tal que
Adicionalmente, Tsay y Tiao (1985) mostraron que el método ESACF satisface
157
donde es una constante diferente de cero o una variable aleatoria
continua que fluctúa entre -1 y 1.
La tabla ESACF (ver Tabla 66) es construida usando las autocorrelaciones muéstrales
extendidas para y y para identificar el
orden del proceso ARMA. Estos ordenes son identificados tentativamente buscando un
patrón triangular derecho con vértices localizados en y y en el cual
todos los elementos no son significativos (basado en una función de autocorrelación
asintóticamente normal). Por lo tanto el vértice de el triangulo identifica el orden del
. La Tabla 67 muestra el patrón teórico asociado a un modelo .
MA
AR 0 1 2 3 . .
0 . .
1 . .
2 . .
3 . .
. . . . . . .
. . . . . . .
Tabla 67 Tabla ESACF
MA
AR 0 1 2 3 4 5 6
0 * X X X X X X
1 * X 0 0 0 0 0
2 * X X 0 0 0 0
3 * X X X 0 0 0
4 * X X X X 0 0
X = Termino significativo
0=Termino no significativo
* = No patrón
Tabla 68 Tabla Teórica ESACF para un proceso ARMA(1,2)
Método MINIC MINimum Information Criterion
El método MINIC o de mínimo criterio de información por sus siglas en inglés, es también
un método para identificar tentativamente el orden de un proceso ARMA estacionario y no
estacionario. Hannan and Rissanen (1982) propusieron este método, y Box et al (1994) y
Choi (1990) dieron una descripción útil de su algoritmo.
Dado un proceso estacionario o no estacionario de serie de tiempo con la
sustracción de su media (mean corrected) con un verdadero orden
158
autoregresivo igual a , y con un verdadero orden de promedio móvil igual a , es
posible utilizar el método MINIC para calcular los criterios de información (o funciones de
penalidad) para varios ordenes de modelos autoregresivos y de medias móvil.
Si una serie estacionaria e invertible sigue un proceso de la forma
entonces su error puede ser aproximado por un proceso AR de orden alto (o superior),
asi
donde los parámetros estimados son obtenidos por medio de estimadores de Yule-
Walker. La escogencia del orden autoregresivo, , es determinado por el orden que
minimiza el criterio de información Akaike AIC, en el rango
( ) (
)
donde
∑
Note que Hannan y Risannen (1982) utilizaron criterios de información Bayesianos (BIC)
para determinar el orden autoregresivo usado para estimar la serie de los errores. Sin
embargo, Box et al (1994) y Choi (1990) recomiendan el eso del criterio AIC.
Una vez la serie de errores ha sido estimada para la prueba del orden autoregresivo
y del promedio móvil , se procede a estimar por MCO
y del siguiente modelo de regresión
∑
∑
de los parámetros anteriormente estimado, el BIC es entonces calculado de la siguiente
forma
( ) (
)
donde
159
∑ ∑
∑
donde .
La tabla MINIC (ver Tabla 68) es construida utilizando el . Si ,
entonces la anterior regresión mostrada puede llegar a fallar debido a la dependencia
lineal en la serie de errores estimada y en la corrección promedio de la serie. Los valores
que no pueden ser calculados son establecidos en la tabla como faltantes. Para
largos ordenes autoregresivos y de media móvil con relativamente pocas observaciones
puede resultar en un ajuste cercanamente perfecto. Esta condición puede ser identificada
encontrando el más alto valor negativo del , en la tabla. La idea entonces es
encontrar el valor mínimo en dicha tabla.
MA
AR 0 1 2 3 . .
0 BIC(0,0) BIC(0,1) BIC(0,2) BIC(0,3) . .
1 BIC(1,0) BIC(1,1) BIC(1,2) BIC(1,3) . .
2 BIC(2,0) BIC(2,1) BIC(2,2) BIC(2,3) . .
3 BIC(3,0) BIC(3,1) BIC(3,2) BIC(3,3) . .
. . . . . . .
. . . . . . .
Tabla 69 Tabla MINIC
10.6.10 Identificación Serie LR1000
La aplicación práctica tomará como ejemplo la serie y se desarrollará de la
siguiente manera. Primero se observará el comportamiento de las funciones de
autocorrelación ACF y autocorrelación parcial PACF para determinar uno o más
ordenamientos tentativos para el modelo En seguida se desarrollarán las
metodologías SCAN, ESACF y MINIC presentadas anteriormente para corroborar y/o
complementar los modelos tentativos para la serie. Recuerde que el algoritmo Box-
Jenkins determina que es necesario probar varios modelos antes de tomar uno como
definitivo para el pronóstico, por lo que mostrar todas las salidas e intentos de encontrar el
mejor modelo bajo el algoritmo de Box-Jenkins resulta además de improductivo,
inoficioso. En este paso se obtendrán los modelos más plausibles para ser estimados y se
encontrará más adelante un modelo definitivo para cada una de las cinco series.
Para observar el comportamiento de las funciones de autocorrelación y autocorrelación
parcial se procede entonces a oprimir el botón “Correlograma” dentro del aplicati o
ASTEX
160
Este da paso a una serie de mensajes que preguntarán por el número de rezagos que se
desean incluir, el tipo de error estándar (Aproximación Bartlett o Método de
independencia) y por ultimo si se desea estimar el correlograma con la primera diferencia
o sin ella. El código arroja los resultados en otro libro el cual para el caso de la serie
LR1000 presenta la siguiente ACF y PACF.
Ilustración 9 ACF Serie LR1000
1 2 3 4 5 6 7 8 9 10
Autocorrelación 0.575 0.364 0.322 0.228 0.278 0.145 0.011 -0.109 -0.202 -0.147
Ljung-Box
(P-Value)
17.5
(0.00)
24.7
(0.00)
30.4
(0.00)
33.4
(0.00)
37.9
(0.00)
39.1
(0.00)
39.1
(0.00)
39.8
(0.00)
42.4
(0.00)
43.8
(0.00)
11 12 13 14 15 16 17 18 19 20
Autocorrelación -0.161 -0.134 -0.213 -0.333 -0.245 -0.084 0.034 -0.098 -0.147 -0.110
Ljung-Box
(P-Value)
45.5
(0.00)
46.8
(0.00)
50.0
(0.00)
58.0
(0.00)
62.4
(0.00)
63.0
(0.00)
63.1
(0.00)
63.9
(0.00)
65.7
(0.00)
66.7
(0.00)
21 22 23 24
Autocorrelación -0.166 -0.090 -0.094 -0.173
Ljung-Box
(P-Value)
69.2
(0.00)
70.0
(0.00)
70.8
(0.00)
73.8
(0.00)
Tabla 70 Función de autocorrelación y Ljung Box Q - Stat LR1000
-0,6
-0,4
-0,2
0
0,2
0,4
0,6
0,8
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
ACF LR1000
161
Ilustración 10 PACF Serie LR1000
1 2 3 4 5 6 7 8 9 10
Autocor Parcial 0.575 0.051 0.141 -0.026 0.186 -0.170 -0.087 -0.202 -0.098 0.022
11 12 13 14 15 16 17 18 19 20
Autocor Parcial -0.024 0.083 -0.136 -0.145 0.015 0.185 0.116 -0.247 -0.021 -0.058
21 22 23 24
Autocor Parcial -0.179 -0.078 -0.037 -0.069
Tabla 71 Función de Autocorrelación Parcial LR1000
Observe como la función de autocorrelación parece decrecer asintóticamente de manera
un tanto rápida, lo que llevaría a pensar una vez más que la serie es estacionaria puesto
que comportamientos típicos de la ACF en series no estacionarias estarían ligados a un
decrecimiento muy lento de las autocorrelaciones entre sus rezagos. Note además como
el estadístico propuesto por Ljung-Box (1978) 38 para probar si un grupo de hasta
autocorrelaciones son significativamente diferentes de cero permite rechazar la hipótesis
nula para cualquiera de estos grupos a lo largo de los 24 rezagos probados. Es
decir, la serie no es ruido blanco y puede ser pronosticada de su pasado. Este aspecto es
fundamentalmente importante puesto que como se verá más adelante el estadístico
Ljung-Box servirá para (i) determinar que los residuos de un modelo tienen
autocorrelación cero y (ii) determinar que algunas de las series después de sustraer
componentes determinísticos no se pueden pronosticar de su propio pasado por lo menos
de manera lineal.
Ahora bien, dado que la serie es estacionaria, la convergencia asintótica de la ACF
sugiere entonces la posibilidad de estar bajo la presencia de un autoregresivo del orden
dictado por la caída abrupta del rezago en la PACF. Es decir, un modelo plausible que
38 El estadístico Q de Ljung-Box (1978) está dado por ∑
y tiene un
desempeño mejor para muestras pequeñas que el estadístico Q de Box-Pierce.
-0,4
-0,3
-0,2
-0,1
0
0,1
0,2
0,3
0,4
0,5
0,6
0,7
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
PACF LR1000
162
puede llegar a ajustar bien en este tipo de serie sería indiscutiblemente un autoregresivo
de orden uno AR(1).
Sin embargo, debido a que se está ante la presencia de una ACF muestral y no
poblacional, las autocorrelaciones entre rezagos pueden distar del verdadero mecanismo
generador de datos que rige al proceso estocástico. Es decir, existe la posibilidad que el
modelo no solo sea significativo en el rezago 1, sino también en otro rezago o que se
esté parado bajo un modelo mixto cuando y que éste permita ayudar a mejorar la
explicación del modelo, por lo menos de dentro de muestra.
Ahora bien, un modelo solo con estas características, es el perfecto ejemplo para un tipo
de representación polinómicas que se a usta “bien” a los datos dentro de muestra pero
que no necesariamente lo haga fuera de ella para períodos más lejanos a uno; esto se
tiene puesto que al realizar un pronóstico fuera de muestra períodos adelante con este
tipo de modelos se está diciendo que el dato inmediatamente anterior es ajustado por un
ponderador período a período, esto debido a que el valor esperado del término de
perturbación debería ser cero si se cumple con el supuesto 1 que se verá más adelante
(i.e. para ). Además no hay componentes ayuden a capturar las dinámicas
relacionales entre los periodos más lejanos limitando así el modelo a cumplir
adecuadamente con pronósticos de corto plazo (1 o dos periodos máximo) pero quedar
estancado para periodos más lejanos.
Por ello se pueden llagar a utilizar herramientas que hagan más robusta la etapa de
identificación, como las metodologías SCAN, ESACF y MINIC vistas anteriormente con el
objetivo de encontrar un modelo que además de la identificación por los correlogramas
permita identificar adecuadamente el orden del proceso estacionario ARIMA, por medio
de la búsqueda de la correlación canónica más pequeña, la ACF extendida y del orden
que haga mínimo el criterio de información Bayesiano BIC. Se espera eso sí, que el
mínimo criterio de información en la tabla MINIC se encuentre en o muy cercano al
modelo AR(1) hallado en los correlogramas puesto que se logra con él, maximizar la
función de verosimilitud logarítmica y además con un número muy pequeño de rezagos
(k), condiciones para que un criterio de información se haga mínimo.
La forma como se obtuvieron estas tres metodologías fue a través del software comercial
SAS 9.1 en su módulo SAS/ETS, el cual permite realizar por medio del procedimiento
ARIMA (PROC ARIMA), todo el algoritmo de Box-Jenkins para la identificación,
estimación, diagnóstico y pronóstico de series de tiempo estacionarias. Se le pidió
entonces que mostrara los resultados de estas metodologías para un máximo entre 1 y 7
rezagos en la parte autoregresiva y entre 0 y 7 en de la de media móvil, es decir
y , esto debido a que se sabe que debe existir una parte explicada
por medio de un componente autoregresivo dado lo encontrado en el correlograma
anteriormente, pero no se limita el orden de media móvil .
163
Para el método SCAN, los resultados de los valores de probabilidad de contraste de
con una acorde a lo establecido por Tsay y Tiao (1985) se muestran en la
siguiente matriz dada por la representación en la Tabla 64. Tabla SCAN. Recuerde que en
este método se busca aquel o aquellos puntos donde las probabilidades de ahí
en adelante se hacen muy altas, lo que determinaría que seguirían un patrón rectangular
en el cual las son insignificanticas para todos los ordenes de prueba y
SCAN - Valores de Probabilidad - ARMA(p+d,q)
MA
0 1 2 3 4 5 6 7
AR
1 0.7433 0.3954 0.7914 0.3021 0.0839 0.4594 0.5665 0.4243
2 0.3794 0.6528 0.5533 0.6280 0.1067 0.5726 0.8512 0.7759
3 0.9573 0.5307 0.8679 0.2815 0.1437 0.7925 0.6096 0.6607
4 0.1709 0.4114 0.2753 0.5992 0.2445 0.5586 0.9428 0.6523
5 0.1914 0.2762 0.1865 0.2341 0.4440 0.4981 0.5232 0.6674
6 0.4573 0.5648 0.6067 0.5153 0.6858 0.9346 0.8136 0.8924
7 0.1292 0.5537 0.4470 0.5194 0.7844 0.8664 0.8195 0.7899
Tabla 72 Tabla SCAN serie LR1000 (1:50)
Observe como para una significancia del los valores resaltados muestran el inicio
de un patrón rectangular de términos no significativos. Haciendo un análisis un tanto más
detallado sobre la tabla SCAN se observa como el orden (1,0) podría haber sido un
modelo tentativo si no fuese porque no se desdibuja un patrón rectangular en él,
determinado por la significancia del orden (1,4). Sin embargo, la previa conjetura sobre el
modelo se ve validada si tomamos una significancia del
donde de hecho, el único modelo que se obtendría sería el encontrado en los
correlogramas. Sin embargo, se da una significancia un poco más alta para no restringir
tanto la posible conformación de otros modelos que pueden ser probados y
diagnosticados y que podrían llegar a tener un mejor desempeño que el AR(1).
La tabla SCAN nos permite entonces evidenciar 2 modelos tentativos
adicionales: (i) ARIMA(2,0) y (ii) ARIMA(1,5). Empero, se debe probar la significancia
estadística de cada uno de los parámetros de cada modelo, puesto que se debe
garantizar que el modelo sea parsimonioso, permitiendo estimar un orden tentativo con la
menor cantidad de parámetros posibles. Por ejemplo para el caso (ii) del ARIMA(1,5),
observando la PACF el rezago y deban ser excluidos del modelo
pues su presencia, muy posiblemente, no sea representativa y por tanto su inclusión
violaría el principio de parsimonia; sin embargo, esto debe ser constatado en la etapa de
estimación.
164
Ahora bien, los valores de probabilidad de la metodología ESCAF propuesta por Tsay y
Tiao (1985) la cual se construye utilizando las autocorrelaciones muéstrales extendidas
, presentó los siguientes resultados
ESACF - Valores de Probabilidad - ARMA(p+d,q)
MA
0 1 2 3 4 5 6 7
AR
1 0.5785 0.2653 0.7698 0.4319 0.0736 0.4563 0.9643 0.5775
2 0.0385 0.237 0.7892 0.7357 0.1215 0.6268 0.8808 0.8919
3 0.6971 0.0137 0.8149 0.7958 0.1657 0.7115 0.7635 0.7871
4 0.7963 0.0689 0.7702 0.7565 0.1069 0.6591 0.9886 0.6032
5 0.001 0.022 0.0071 0.0688 0.2406 0.5879 0.844 0.7686
6 0.0041 0.2475 0.3231 0.1211 0.3139 0.998 0.8639 0.9848
7 0.0077 0.0018 0.4182 0.1486 0.4648 0.5668 0.8398 0.9609
Tabla 73 Tabla ESCAF serie LR1000 (1:50)
La identificación de los órdenes tentativos de dio por medio de la caracterización de un
patrón triangular derecho con vértices localizados en y . Se
encontró que existen 2 modelos adicionales que deberían ser tenidos en cuenta para la
etapa de estimación, estos modelos son (i) ARIMA(2,1) y (ii) ARIMA(6,1). Una vez más,
dado que estas herramientas aquí presentadas son una ayuda estadística para identificar
el orden del modelo ARIMA y nunca deben ser tomados como un resultado definitivo al
método, se deberá evaluar la significancia estadística y el diagnóstico de varios modelos
para garantizar que sea parsimonioso y además que cumpla con los supuestos en la
etapa de diagnóstico. El propósito de esta etapa es simplemente la identificación tentativa
de varios modelos plausibles de ser estimados.
La tabla MINIC presentada por Hannan y Rissannen (1982) no sugiere la necesidad de
encontrar patrones de comportamientos triangulares o rectangulares, simplemente se
busca el mínimo BIC (es decir el valor más negativo) dentro de la tabla y el modelo
asociado a dicho valor será el que minimice el criterio de información. Esta tabla resulta
más conveniente para realizar una comparación entre modelos tentativos arrojados por
dos anteriores métodos SCAN y ESACF. A continuación se presentan los resultados
obtenidos
MINIC – Criterio de información BIC
MA
0 1 2 3 4 5 6 7
AR
1 -2.0207 -1.9471 -1.9156 -1.8717 -1.8130 -1.7762 -1.7000 -1.7136
2 -1.9443 -1.8793 -1.8377 -1.7939 -1.7348 -1.7109 -1.6376 -1.6640
3 -1.9129 -1.8509 -1.7927 -1.7199 -1.6599 -1.6344 -1.5593 -1.5939
4 -1.8487 -1.7857 -1.7345 -1.6628 -1.5855 -1.5670 -1.4949 -1.5171
5 -1.8117 -1.7482 -1.6783 -1.6106 -1.5609 -1.4947 -1.4278 -1.4398
6 -1.7651 -1.7620 -1.6907 -1.6133 -1.5377 -1.4684 -1.3911 -1.3771
7 -1.7530 -1.7420 -1.6720 -1.5975 -1.5232 -1.4615 -1.3911 -1.3147
Tabla 74 Tabla MINIC Serie LR1000 (1:50)
165
Como se puede observar, la combinación de que hace mínimo el criterio de
información Bayesiano se da en la intersección entre AR 1 y MA 0, lo cual correspondería
a un modelo ARMA(1,0) o lo que es lo mismo ARIMA(1,0,0). Como se mencionó
anteriormente, este resultado es complementarte sensato si se observa que este modelo
es el que mayor acople tuvo dada la interpretación de la ACF y PACF que se mencionó
anteriormente. Sin embargo, estos criterios de información deberán ser tenidos en cuenta
a la hora de realizar comparaciones entre modelos, es decir, cada uno de los 5 modelos
previamente identificados, tienen asociado consigo un valor de BIC que se muestra en la
tabla anterior, como se observa en la siguiente tabla
Modelo Tentativo
BIC
ARMA(1,0) -2.0271
ARMA(2,0) -1.9443
ARMA(2,1) -1.8793
ARMA(1,5) -1.7762
ARMA(6,1) -1.7620
Tabla 75 Tabla BIC modelos SCAN y ESACF
Adicional a estos métodos, se programó una función en el lenguaje MATLAB que tiene el
propósito de servir como ayuda adicional para la identificación del mejor modelo por
medio de la búsqueda iterativa de combinaciones de parámetros p, q que hagan mínima
una función de pérdida de pronóstico predicha dentro de muestra, esta función lleva el
nombre de ARI MAI N la cual esta autocontenida en un archivo. m y será explicada a
continuación.
ARI MAI N permite evaluar muchas posibles estimaciones de 39 y encontrar aquella
combinación que haga mínimo el error de pronóstico ingresado como input en la función.
Esto permite encontrar modelos que se ajusten bien a los datos dentro de la muestra bajo
las condiciones del algoritmo y bajo dicha función de perdida solicitada; todo esto para un
rango máximo de componentes autoregresivos y de media móvil requeridos (MaxP y
MaxQ).
Cabe resaltar de manera enfática que tanto para este tipo de método de identificación
como para los tres anteriores, el código ARI MAI N fue tomado como un complemento
adicional para determinar los polinomios y de la ecuación diferencial (D0), más
nunca fueron tomados como resultados determinantes del tipo de modelo. Esto quiere
39 Es preciso mencionar que, a diferencia los métodos SCAN, ESCAF y MINIC, las estimaciones
no se realizan para los rezagos …p o …q, sino para los absolutos de p y q. Por ejemplo: si el valor mínimo de la función de pérdida de error de pronóstico se encuentra en la intersección p=3 y
q=2, entonces el polinomio que los representa estará dado por
y
no por
. Esto se realizó de esta manera para
permitir identificar de manera preliminar a la estimación modelos con diferentes ordenes y que, utilizando menor cantidad de parámetros, pueden llegar a ajustarse adecuadamente a los datos estudiados.
166
decir que, con ayuda de las funciones de autocorrelación, autocorrelación parcial, los
métodos SCAN, ESACF y MINIC, la condición trascendental de cumplimiento de
parsimonia en los polinomios de la ecuación representativa, la estabilidad de los
parámetros del modelo, los demás supuestos de validación del mismo y el código
ARI MAI N para ver el mejor modelo dentro de muestra en un rango de posibilidades, se
logrará identificar un modelo que ratifique se considerado como un buen modelo de ajuste
de la serie estudiada y que puede llegar a ser usado para el pronóstico.
A continuación se describen los elementos que componen a la función y se presentan los
resultados obtenidos acorde a la identificación del modelo.
La función [ s t dEr r or , MAPE, MAE, RMSE] =ARI MAI N( ser i e, opt i ons) expresa la
necesidad de dos condiciones de entrada, la primera hace referencia a la serie que se
desea evaluar, original y sin transformaciones ni de varianza ni de nivel, y la segunda a
una estructura de opciones que tienen valores por defecto si estas no son ingresadas por
el usuario y que se describirán más adelante. La función cuenta además con tres posibles
salidas o outputs, el primero hace referencia al error estándar del modelo cuyo valor haga
mínimo la función de pérdida predicha, y los tres siguientes corresponden a las matrices
de filas por columnas con todos los valores posibles de cada una de
las funciones de pérdida MAPE, MAE y RMSE en cada combinación, este tema se verá
más adelante para el ejemplo de la serie LR1000 como se ha venido trabajando en esta
sección. La lectura de estas tres matrices se da de la misma manera que como se realizó
con la tabla MINIC.
La estructura opt i ons tiene entonces los siguientes componentes:
MaxP: corresponde el máximo número de componentes autoregresivos a
considerar. Por defecto se tiene 1.
MaxQ: corresponde al máximo número de componentes de media móvil a
considerar. Por defecto se tiene 1.
D: corresponde al orden de integración de la serie. Por defecto se tiene 0.
Ti pEr r or : corresponde al tipo de error que se tendrá en cuenta para mostrar un
resultado de diagnóstico preliminar, para crear el vector de errores st dEr r or
dentro de la muestra y para realizar el pronóstico fuera de muestra solo si se
ingresa un valor mayor a cero para Per Pr onos . Este toma la forma de
“string” es decir que debe ingresarse como carácter de alguno de estos tipos de
error:
' MAE' - Error Medio Absoluto
' RMSE' - Raíz cuadrada del Error Cuadrático Medio
' MAPE' - Error Medio Absoluto en Porcentaje
167
Por defecto se tiene ' RMSE' .
Tr ans: hace referencia al tipo de transformación de varianza que sufre la serie,
ésta puede tomar las siguientes formas:
' Log' - transformación tipo Logarítmica
' Rai z ' - transformación tipo raíz cuadrada √
‘ I n Rai z ' - transformación tipo inversa de raíz cuadrada √
' I nv ' - transformación tipo inversa
' BoxCox' - transformación tipo Box-Cox (1965) véase Sección. 4.4.2.2
' Or i g' - no sufre ningún tipo de transformación
Por defecto se tiene ' Or i g' .
d1_LI NEX y d2_LI NEX: corresponden a los valores de y de la función
LINEX presentada al inicio de este capítulo estos valores únicamente serán
tenidos en cuenta para el pronóstico fuera de muestra, es decir si Per Pr onos>0.
Por defecto ambos valores son cero
d1_LI NLI N y d2_LI NLI N: corresponden a los valores de y de la función
LINLIN presentada al inicio de este capítulo. estos valores únicamente serán
tenidos en cuenta para el pronóstico fuera de muestra, es decir si Per Pr onos>0.
Por defecto ambos valores son cero.
Per Pr onos : corresponde al número de períodos a pronosticar. Si este es mayor
que cero, se generará la evaluación del pronóstico por fuera de muestra
contrastando con los valores de la serie original dada por Ser Or g. Por defecto
toma el valor de cero.
Ser Or g: corresponde a la serie original, la cual servirá para evaluar el pronóstico
fuera de muestra acorde al mejor modelo escogido según el criterio de función de
pérdida dado por Ti pEr r or . Por defecto se tiene que el valor será el mismo de
ser i e.
Di agnos : toma el valor de ‘ on’ si se desea observar al final el proceso el
diagnóstico del término de perturbación mostrado tanto por medio de tests
estadísticos (media cero bajo Guerrero (2003, p.144), prueba de normalidad
Jarque Bera (utilizado si la muestra es grande), prueba de normalidad Lillierfors y
el valor de probabilidad del estadístico Q de Ljung-Box en T/4 para determinar que
no exista autocorrelación en los errores) como por medio de una representación
visual dada por el ajuste y pronóstico de la serie, la función de autocorrelación
ACF para determinar si existe autocorrelación cero, la gráfica de ajuste de la
función de densidad de una normal estándar con la función de densidad de
168
probabilidad del término de perturbación y por último la gráfica de la serie de
residuos con limites para determinar la potencial existencia de
Outliers, así como la línea donde se encuentra la media. Todo esto se obtiene con
la finalidad de ir descartando modelos cuyo diagnóstico no sea el adecuado.
Caso contrario tomará el valor ‘ of f ’ si no se desea imprimir los diagnósticos.
El valor por defecto es ‘ of f ’ .
ARLags y MALags : corresponden a una opción adicional para la estimación del
modelo ARIMA en el cual se ingresan los vectores de posibles rezagos en AR o
MA los cuales no podrán ser tenidos en cuenta únicamente por el algoritmo. Es
decir, si se desea evaluar el modelo
este deberá ser ingresado como ARLags=[ 1, 3] y MALags=[ 2, 4] . Por defecto
se tiene ARLags=[ ] y MALags=[ ] , caso contrario se estimará el modelo con
estos vectores de parámetros y no se obtendrá ningún valor para los últimos tres
outputs de la función.
Teniendo clara la disposición de la función ARI MAI N se procedió a ejecutar el código en
MATLAB con las siguiente estructura de opciones considerada para el ejemplo que se
venía trabajando con LR1000.
opt i ons. MaxP = 7; opt i ons. MaxQ = 7; opt i ons. Tr ans = Log; opt i ons. Ti pEr r or = ' MAPE' ; opt i ons. Di agnos = ' of f ' ; ser i e = R1000( 1: 50) ; [ s t dEr r or , MAPE, MAE, RMSE] =ARI MAI N( ser i e, opt i ons) ;
Observe como al no ingresar las demás opciones, estas tomarán el valor por defecto que
se mencionó anteriormente. Se tiene entonces que se obtendrán tres matrices40 MAPE,
MAE y RMSE de 8 filas por 8 columnas cada una, cada una con las funciones de pérdida
evaluadas dentro del abanico de posibles combinaciones dado por MaxP y MaxQ.
Además, se está especificando que el grado de diferenciación será el valor por defecto,
que corresponde a cero, acorde a la teoría presentada anteriormente. Por último se le
está pidiendo al código que transforme la varianza acorde a una función logarítmica de la
serie TR1000.
Se tiene entonces que las matrices obtenidas a través de la función ARI MAI N fueron las
40 Únicamente con el objetivo de ejemplificar las posibles salidas del código en ARIMAIN.m se
obtuvieron las tres matrices. Sin embargo, si es de interés del investigador únicamente minimizar, por ejemplo, la suma de errores al cuadrado se pedirá únicamente que se muestran los resultados de la matriz RMSE y no de las otras dos marices. Es decir que el output deberá ser especificado como [ st dEr r or , ~, ~, RMSE] =ARI MAI N( ser i e, opt i ons) ;
169
siguientes.
MAPE
MA
0 1 2 3 4 5 6 7
AR
1 32.326 32.635 32.078 31.976 31.798 31.296 32.509 32.292
2 39.077 32.023 38.992 39.289 38.895 37.266 38.601 39.013
3 40.689 33.510 40.141 40.356 40.482 37.966 40.261 40.651
4 41.422 34.570 39.234 41.041 40.738 39.497 40.912 41.384
5 41.115 32.791 38.524 39.625 39.890 39.968 40.963 40.672
6 42.549 34.300 39.945 40.356 40.255 39.698 40.549 42.212
7 43.553 34.232 39.973 41.657 40.731 39.843 42.295 42.932
Tabla 76 Tabla MAPE para la serie LR1000 (1:50) obtenida por ARIMAIN.m
RMSE
MA
0 1 2 3 4 5 6 7
AR
1 5512.83 5425.93 5484.55 5380.71 5446.28 5298.39 5498.59 5514.21
2 6126.25 5494.64 6069.82 6109.79 6130.02 5881.19 6005.17 6137.34
3 6074.97 5258.61 6062.05 6024.46 6102.80 5719.82 5839.69 6070.30
4 6455.56 5694.98 6141.00 6285.86 6504.17 6119.05 6276.85 6457.99
5 6184.10 5299.71 5899.11 5855.99 6110.79 6159.71 6102.79 6237.23
6 6503.25 5651.11 6163.68 5899.15 6365.62 6124.96 6143.68 6439.12
7 6675.14 5686.73 6276.23 6338.40 6490.39 6199.91 6440.93 6282.52
Tabla 77 Tabla RMSE para la serie LR1000 (1:50) obtenida por ARIMAIN.m
MAE
MA
0 1 2 3 4 5 6 7
AR
1 3977.20 3995.45 3965.47 3925.74 3846.10 3847.77 3996.58 3973.78
2 4709.65 3950.62 4722.43 4741.07 4779.48 4556.16 4632.95 4713.35
3 4912.06 4044.51 4843.03 4864.23 4962.42 4665.63 4837.63 4906.65
4 5072.65 4238.11 4804.22 5019.72 5047.80 4872.15 5002.22 5068.15
5 4950.74 4002.46 4653.98 4840.54 4938.59 4838.38 4921.25 4919.14
6 5053.99 4152.74 4768.19 4891.80 4972.04 4803.62 4752.35 5171.15
7 5172.88 4152.92 4766.33 5004.14 5038.67 4822.42 4995.08 5032.22
Tabla 78 Tabla MAE para la serie LR1000 (1:50) obtenida por ARIMAIN.m
como se puede observar, el valor mínimo de la tabla MAPE se dio en la combinación (1,5)
la cual hizo parte de un modelo plausible de la técnica ESACF y SCAN41, mientras que los
41 Con la salvedad que no se está tomando el modelo representado por
sino el por
. Lo único que esto nos está
170
dos valores mínimos de las tablas MAE y RMSE se dieron en la combinación (3,1) y (4,1)
lo que incluiría en la etapa de identificación otros tres modelos plausibles que deberían
ser estimados y probados.
Estas tablas de funciones de pérdida aquí presentadas tiene un sustento teórico si sé
sabe que la combinación que haga mínimo alguna de estas funciones, es aquel que se
ajusta mejor a los datos reales y por tanto deberá ser considerado como un orden posible
en las siguientes dos etapas de Box-Jenkins. Ahora bien, estas tablas son al igual que las
demás, una ayuda complementaria para identificar el orden tentativo del modelo y no
como aplicación definitiva al método.
Note además que algunos los órdenes posibles son compartidos entre metodologías, en
este caso el modelo ARIMA(1,5) presentó la mayor cantidad de repeticiones entre
métodos (SCAN, ESACF y MAE). Además, una observación más minuciosa sobre la
matriz RMSE (ver Tabla 76) y MAE (ver Tabla 77) permite evidenciar que el segundo valor
mínimo de la función de pérdida en ambas tablas viene dado por la intersección
ARIMA(1,5) con 5298.39 y 3847.77 respectivamente, a lo cual será necesario darle una
mayor inspección a dicho modelo, puesto que puede estar ajustándose bien a los datos
pero ser un modelo “mal omportado” estadísticamente hablando.
Los resultados que nos muestran las tablas generadas por ARI MAI N manifiestan un símil
con los resultados determinados en la tabla MINIC propuesta por Hannan y Rissannen
(1982), donde se obtienen resultados que permiten comparar entre modelos y que pueden
ayudar a inclinar la balanza ante una situación de indecisión entre dos modelos tentativos.
Así las cosas, se tendrá que existen 8 modelos tentativos a considerar en las siguientes
dos etapas, los cuales están dados por loa distintos métodos de identificación
presentados en esta sección. Estos modelos son:
Modelo Tentativo
Representaciones polinómicas
M1 ARMA(1,0)
M2 ARMA(2,0)
M3 ARMA(2,1)
M4 ARMA(1,5)
M5 ARMA(6,1)
M6 ARMA(3,1)
M7 ARMA(1,4)
M8 ARMA(1,5)
Tabla 79 Modelos tentativos para la serie LR1000 (1:50)
Sin embargo y como se mencionó anteriormente, estos modelos están sujetos a cambios
una vez se entre en la etapa de estimación. Estos cambios están dados en pro de
dejando ver, es que el modelo ARIMA(1,5) se ajusta bien a los datos sin necesidad de hacer uso de los rezagos anteriores al de media móvil 5. Sin embargo y de manera importante, no dice nada sobre la significancia de cada coeficiente.
171
encontrar el o los polinomios de rezagos que caracterizan el proceso autoregresivo y el de
media móvil, es decir y .
En particular, puede darse el caso que ninguno de estos modelos sea meritorio de ser
escogido puesto que (i) puede existir un polinomio o una combinación de ellos que se
ajuste mejor a los datos y/o que pronostique mejor fuera de muestra y (ii) en este tipo de
métodos se est considerando únicamente alores “tentativos” de los componentes
autoregresivos y de media móvil, es decir ARMA(3,0) corresponde a la representación
polinómica
en los métodos SCAN, ESACF y MINIC o
en la función propuesta en MATLAB y no se está discutiendo la
posibilidad, por ejemplo si la representación real del modelo está dada por
, de incluir el primer rezago en el modelo tentativo arrojado por
ARIMAIN si este es en verdad significativo para el modelo o lo que es lo mismo eliminar el
segundo rezago del modelo tentativo arrojado por SCAN, ESACF o MINIC si este en
verdad no lo es. Por lo que la representación , muy
posiblemente tenga un mejor desempeño mucho mejor por ser una representación más
parsimoniosa del modelo arrojado por SCAN, ESACF o MINIC y por ser un modelo que
aproveche mejor la información disponible que el modelo arrojado por ARIMAIN.
De la misma manera se puede presentar para cualquier otro tipo de polinomio que no se
considera bajo estos métodos, por ejemplo
o inclusive polinomios del tipo multiplicativo los cuales pueden capturar una mayor
cantidad de información siendo más parsimoniosos, como
o cualquier infinidad de posibles combinaciones entre polinomios AR y MA y dentro de
cada uno de ellos. Es por esto que se hace necesario para el investigador probar varios
modelos y encontrar aquel con el que se sienta más a gusto y que cumpla los supuestos
sobre el término del error y el principio de parsimonia.
10.6.11 Método de Máxima Verosimilitud (ML)42
La función de verosimilitud es maximizada por medio de mínimos cuadrados no lineales
usando el algoritmo de Marquardt (véase Levenberg (1944) y Marquardt (1963)) sugerido
por Box y Jenkins (1970) en su libro. Este método está fundamentado en un desarrollo en
series de Taylor que linealiza los errores condicionado al hecho que se conocen los
errores muéstrales y los valores iniciales de los parámetros y . Según Guerrero (2003)
42 Tomado de SAS 9.1. User Guide con traducción no oficial realizada por el autor.
172
es necesario tener en cuenta que el proceso de estimación puede llegar a ser sensible a
los valores iniciales de los parámetros, por lo que si estos valores no son cercanos a los
valores definitivos, es posible que el modelo iterado jamás converja o posiblemente
encontrar paramentos estimados por fuera de la región factible debido al problema de
falta de restricciones sobre los parámetros. Sin embargo, este algoritmo de Marquardt
(1963) no solo permite obtener estimaciones puntuales, sino también intervalos de
confianza.
Los estimadores de Máxima Verosimilitud pueden ser más complejos de calcular que los
estimadores por el método de mínimos cuadrados condicionales, sin embargo, estos
pueden ser preferidos en ciertos casos, como lo explica Ansley y Newbold (1980).
Si se considera el modelo univariado ARMA como el presentado en la ecuación (D0)
donde es una secuencia independiente de innovaciones normalmente distribuidas
y es la media de las serie observada. Entonces la función de verosimilitud
logarítmica puede ser escrita como:
| |
donde es el número de observaciones, es la varianza de como una función de los
parámetros y , es la matriz de varianza covarianza y | | representa el determinante.
El vector denota la serie de tiempo menos la parte estructural del modelo , escrita
como el vector de dimensiones ( X 1), así
[
] [
]
Por tanto, el estimador de máxima verosimilitud de la varianza es
nótese que el estimador de la varianza está dividido por , donde es el número de
parámetros en el modelo, en logar de solo por .
La verosimilitud logarítmica concentrada con respecto a la varianza puede ser tomada
como una constante aditiva, así
| |
173
sea la parte inferior de la matriz triangular con elementos positivos en la diagonal tal
que y el vector . La verosimilitud logarítmica concentrada con respecto a
puede ser escrita como
| |
o
(| |
| |
)
Entonces, el estimador de máxima verosimilitud es calculado utilizando el algoritmo
Marquardt (1963) para lograr minimizar la siguiente suma de cuadrados
| | | |
la principal ventaja del método de Máxima verosimilitud radica en el hecho que no solo
proporciona una estimación de los parámetros de (D0) sino también una estimación de la
matriz de varianza covarianza para los parámetros estimados. Esta estimación, es válida
para muestras grandes si la aproximación lineal por series de Taylor del error es válida
dentro de una vecindad de los valores de los parámetros estimados.
Guerrero (2003) expone ciertos problemas que se pueden presentar en esta etapa de
estimación de parámetros por medio de la máxima verosimilitud.
1. Redundancia de parámetros: este se presenta cuando existen factores
aproximadamente comunes en los polinomios AR y MA. Por ejemplo, considérese
el modelo
el cual podría ser escrito de manera equivalente como
teniendo en cuenta el principio de parsimonia que establece que resulta preferible
trabajar con un número finito de parámetros que con un número infinito de ellos,
sobre todo si la explicación que se tiene del fenómeno es la misma. Es decir, entre
más parámetros se ahorren en el modelo mejor. tenemos que el segundo modelo
es una representación más parsimoniosa del proceso y permite estimar con mayor
precisión el proceso AR.
2. Supuesto de Normalidad: este problema obedece al hecho que se está
suponiendo que los errores se distribuyen como ruido blanco gaussiano (i.e. se
174
distribuye normalmente). Sin embargo, esta suposición es válida bajo el uso de la
transformación “normalizante” de potencia modificada por Box y Cox (1964) para
evitar la discontinuidad en la potencia vista en la sección 4.3.2.1 Estabilización
de varianza. Empero, utilizar esta transformación con el objeto de validar la
suposición del modelo, no garantiza que se satisfaga la suposición ni que sea un
modelo adecuado. Por lo que este supuesto debe ser validado, así como ciertos
otros, en la etapa de diagnóstico como se presentará a continuación.
10.6.12 Teoría Sobre Diagnósticos del Modelamiento ARIMA
10.6.12.1 Supuesto 1. tiene media cero.
La importancia del supuesto de media cero, radica del hecho que el valor esperado del
error debe ser cero para poder descartar que exista una parte determinística en la serie
estimada de residuos que no ha sido incluida por el modelo y que debería incluirse.
Además esto traería problemas a la hora de encontrar la media y varianza del modelo ya
que como se vio en el apartado 4.3.1 Modelo General, al comienzo de esta sección, no se
podría hacer cero y este debería ser incluido en la media y varianza de la serie.
Verificación
Para verificar este supuesto basta con calcular la media aritmética y la desviación
estándar de , así
∑
√∑
donde . Esto con el objetivo de llegar a construir el cociente
√
donde si el valor absoluto de este cociente | | es menor que dos, se podría llegar a
concluir que no hay evidencia significativa de que el valor promedio del proceso de ruido
blanco sea distinta de cero, y viceversa. Entonces
{| | | |
175
Corrección
Las correcciones a la violación de este supuesto deberán realizarse progresivamente en
el siguiente orden,
Verificar si es necesario incluir un término autoregresivo al modelo.
Verificar si requiere diferenciarse una vez más la serie para conseguir que esta
sea estacionaria.
Inclusión de una tendencia determinística en el modelo (D0), la cual debe ser
estimada.
10.6.12.2 Supuesto 2. tiene varianza constante.
Verificación
Realizar una gráfica de los residuos contra el tiempo, con el objetivo de identificar
visualmente, si la varianza muestra o no estar en función del tiempo. Esta verificación se
realiza visualmente debido a que únicamente las variaciones muy notorias pueden
provocar problemas. Para ver ejemplos sobre comportamientos típicos de la varianza del
residuo véase Guerrero (2003, p. 145.).
Corrección
Verificar o aplicar la transformación potencia para estabilizar la varianza de la
serie. Véase el apartado 4.3.2.1. Estabilización de la varianza.
10.6.12.3 Supuesto 3. es Ruido Blanco.
Es necesario que las variables aleatorias sean mutuamente independientes, esto
implica que los residuos del modelo no tengan autocorrelación serial por lo que deben ser
un proceso estocástico de ruido blanco, es decir que no se pueden predecir de su propio
pasado. Este supuesto es fundamental, puesto que la violación del mismo conlleva a
pensar que hay dinámicas de corto o largo plazo, que el modelo puede no estar
capturando y que otro si lo haga. Este supuesto puede verificarse de varias maneras.
Verificación
Calcular la ACF muestral de la serie de residuos, donde debe cumplirse que
para todo .
Prueba de significancia conjunta a través del cálculo del Estadístico de Box-
Ljung (1978). Donde
176
esta prueba tiene el siguiente estadístico
∑(
)
donde bajo , → , lo que representa para muestras grandes
que
∑(
√
)
→
Por lo que si la hipótesis nula es cierta, entonces la autocorrelación para todo
debe estar cerca de cero y no debería ser muy grande. De lo contrario, si es
grande, se rechazaría .
Para más detalle sobre esta prueba véase Ljung y Box (1978).
Prueba de independencia lineal Breusch-Godfrey, bajo la hipótesis nula
En la que se corren los residuos estimados contra las variables originales del
modelo y rezagos de . Así,
Si la hipótesis nula es cierta, entonces la serie de ruidos estimados no tendría
nada que ver con su pasado ni con las variables originales del modelo y por tanto
todos los parámetros de y deberían no ser significativos. Además que el
coeficiente de determinación debería ser cercano a cero. .
Para más detalle sobre esta prueba véase Breusch (1979) y Godfrey (1978).
Corrección
Si la serie de residuos no sigue un proceso de ruido blanco, esto se debe a que las
autocorrelaciones corresponden a cierto otro proceso ARMA por lo que se recomienda
Graficar el correlograma de los residuos estimados.
Tratar de identificar algún proceso ARMA para los residuos viendo los valores de
.
177
Este posible proceso podría sugerir modificaciones al modelo original.
10.6.12.4 Supuesto 4. se distribuye normal.
Al principio de la etapa de estimación se dio a conocer la metodología de máxima
verosimilitud utilizada para estimar los parámetros. Dentro de ésta se realizó el supuesto
que los errores aleatorios son una secuencia independiente de innovaciones
normalmente distribuidas , todo esto bajo la estructura de la ecuación (D0).
Este supuesto permitió la construcción y estimación de la función de verosimilitud
logarítmica, por lo que en esta etapa se deberá verificar dicho supuesto de normalidad.
Verificación
Dentro verificación de este supuesto se esperaría que observaciones
estarían por fuera del intervalo , esta verificación se puede realizar
Con la gráfica de residuos contra el tiempo, como se usó con el Supuesto 2.
Histograma de los residuos, visualmente observando la asimetría y la curtosis.
Con una gráfica de sobre posición de funciones de densidad de la normal estándar
y la función de densidad del término de perturbación.
Prueba de bondad de ajuste de la distribución normal, Jarque Bera para muestras
grandes. (Véase Jarque y Bera (1987)), el test Lilliefors el cual muestra tener un
desempeño mejor en muestras pequeñas y está basado en la prueba de
Kolmogorov-Smirnov o el test Shapiro Wilk el cual también tiene un desempeño
mejor para muestras pequeñas.
Corrección
Las violaciones a este supuesto tienen que ser bastante notorias para llegar a pensar que
puede traer problemas. Esto debido al hecho que este supuesto deberá cumplirse para
los errores aleatorios y no necesariamente para los residuos . En caso de violación
del supuesto se puede recurrir a
Realizar una transformación normalizante como la de Box y Cox (1964), donde
{
( )
Realizar o revisar la transformación para la estabilización de la varianza vista en la
sección 4.3.2.1. Estabilización de la varianza, al comienzo de este capítulo.
10.6.12.5 Supuesto 5. No existen observaciones Outliers.
178
Las observaciones aberrantes o Outliers son frecuentemente encontradas en series
tomadas empíricamente y cuya presencia pueden llegar a alterar los resultados debido a
la distorsión que estos traen en las funciones de autocorrelación. El estudio de la
presencia de Outliers en los modelo ARIMA han sido un campo de estudio bastante activo
los últimos años. (i) Fox (1972) propone el uso de un test basado en la razón de máxima
verosimilitud para detectarlos, luego (ii) Chang y Tiao (1983) y Chang, Tiao y Chen (1988)
profundizan en los resultados de Fox (1972) en los modelos ARIMA mostrando un
procedimiento iterativo para la detección de Outliers y la estimación de parámetros. Más
adelante (iii) Tsay (1988) generaliza este procedimiento por medio de la detección de
cambios de nivel y cambios temporales. Debido a la confusión que existe entre los
cambios de nivel en la serie debido a cambios estructurales y la presencia de Outliers en
las innovaciones (iv) Balke (1993) propone un método para resolver esta confusión. Por
último (v) Chen y Liu (1993) proponen una metodología para su detección que presenta
mejoras significativas a todas las anteriores y parece ser ampliamente utilizada hoy en
día.
Verificación
La principal herramienta para detectar un Outlier es el conocimiento del investigador sobre
la serie que trabaja. Si llegase a detectar una observación posiblemente sospechosa, es
obligación de él buscar una explicación del por qué dicha observación se encuentra tan
desviada del resto, debe indagar en la fuente principal, si fue un error de digitación, error
humano, cambio estructural, error de copiado de los datos o simplemente que dicha
observación se debió a causas naturales del proceso.
Además de las técnicas presentadas por los autores mencionados anteriormente,
Guerrero (2003) propone
Realizar una inspección visual por medio de la gráfica de residuos contra el
tiempo.
Un residuo que se encuentre fuera del intervalo debería ser causa de
sospecha debido al hecho que pudo ocurrir por dos causas: (i) la probabilidad de
ocurrencia fue del 0.2% (muy improbable) y (ii) el residuo no fue generado por el
mismo proceso generador del resto de la serie.
Corrección
Antes de entrar a corregir el problema y perjudicar el análisis se debe tener evidencias
solidas tanto cuantitativas como cualitativas que dicha observación es en efecto atípica
para el proceso que generó los datos. Si se encuentra que esta observación corresponde
a un cambio estructural deberán tomarse diferentes medidas. Si por el contrario se
encuentra que dicha observación es en particular un Outlier deberá corregirse este error
mediante la entrevista con expertos en el tema, directores de operaciones, gerentes o por
179
medio de la interpolación de la serie. Sin embargo este problema es meritorio de un
profundo análisis.
10.6.12.6 Supuesto 6. Parsimonia.
Verificación
Para determinar que el modelo es parsimonioso se recurre la construcción de intervalos
de aproximadamente 95% de confianza para cada uno de los parámetros del modelo, así
( √ ( ) √ ( ))
Se debe observar si el valor cero (0) se encuentra por dentro del intervalo, esto para
determinar estadísticamente que dicho parámetro debería o no estar incluido dentro del
modelo.
Corrección
Si el valor cero (0) es un valor que se encuentra dentro del intervalo para el
correspondiente parámetro, será necesario reestimar el modelo sin él y verificar su
parsimonia nuevamente. Sin embargo, estas pruebas están para ayudar a la toma de
decisiones y nunca deben ser vistas como determinación tacita de una decisión. Por ello
si el proceso determina que este parámetro debe ser obligatoriamente incluido en el
modelo, deberá hacerse caso omiso de dicha prueba.
10.6.12.7 Supuesto 7. Admisibilidad.
Como lo explica Guerrero (2003, p. 120) la región admisible para los parámetros del
modelo se logra obtener como consecuencia de las condiciones de estacionariedad e
invertivilidad para los modelos. Como se explicó anteriormente, un modelo AR(1) es
estacionario si y solo si , por lo que su región admisible se representaría como
De la misma manera, un proceso AR(2) sería estacionario si satisface: (i) , (ii)
y (iii) . Por lo que estas tres condiciones forman un triangulo el
cual corresponde a su región admisible, y se representa como
-1 0 1
ø
Ilustración 11 Región admisible AR(1)
180
De la misma manera el modelo ARMA(1,1) será estacionario e invertible si el valor
absoluto del coeficiente componente autoregresivo y del promedio móvil es menor que la
unidad. | | y | | . Situación que se representa dentro de un cuadrado con una
diagonal transversa a él. Esta diagonal donde representa el caso general en el que
el modelo ARMA(1,1) es indistinguible de un proceso de ruido blanco, como lo expone
Guerrero. Tenemos entonces que su región admisible estaría dada por
Verificación
Para estos tres casos aquí presentados más los de los modelos MA(1) y MA(2) resulta
sencillo determinar si el modelo es admisible o no, únicamente determinando si los
parámetros se encuentra en los rangos de admisibilidad. Sin embargo, para modelos con
mayor número de parámetros resulta más complejo. Esto verificación podría verificarse de
acuerdo a las condiciones de estacionariedad o invertivilidad que corresponden a los
polinomios de rezado que intervienen.
Corrección
Se debe tener en consideración los siguientes puntos
𝜙 𝜙
𝜙
𝜙
𝜙 𝜙 𝜙 𝜙
1
-1
-2 2
𝜃
𝜙 -1 1
1
-1
Ilustración 12 Región admisible AR(2)
Ilustración 13 Región admisible ARMA (1,1)
181
Siempre ver el intervalo de confianza de las estimaciones, dado que los
parámetros suelen darse como estimaciones puntuales y puede sesgar el modelo
a la no admisibilidad.
Deben fijarse los parámetros en los valores que vuelven admisible al modelo.
De no ser admisible el modelo se debe revisar de nuevo la estimación de los
parámetros.
10.6.12.8 Supuesto 8. Estabilidad en los parámetros.
Verificación
Este último supuesto es de carácter vital para el buen desempeño del modelo. Su
derivación, como se mencionó anteriormente, viene de las raíces de la ecuación auxiliar
del modelo. En general, todo modelo, sin excepción, debe asegurar que los inversos de
las raíces de la ecuación auxiliar, también llamado polinomio característico, sean menores
que la unidad en magnitud. Es decir bajo la representación de un circulo unitario como el
de la Ilustración 14, se espera que estos inversos de las raíces se encuentren dentro del
circulo unitario.
Esta estabilidad del modelo determina que existe convergencia hacia el estado
estacionario (Steady State), de lo contrario el modelo diverge y se considera explosivo.
La principal causa de la inestabilidad es la redundancia de parámetros. Por lo que
conviene revisar la posible existencia de correlaciones altas (positivas o negativas) entre
los distintos parámetros para evitar así la inestabilidad. Para conseguir este propósito es
necesario realizar esta correlación entre parejas de parámetros estimados.
( ) ( ) ( )
√ ( ) ( )
𝜃
𝜙 -1 1
1
-1
Ilustración 14 Circulo unitario
182
Corrección
Cancelar parámetros redundantes (con coeficiente de correlación alta).
Eliminación de factores aproximadamente comunes en los polinomios AR y MA.
10.6.13 Estimación-Diagnóstico Serie LR1000
En esta etapa de estimación-diagnóstico, se pretende filtrar todos los modelos posibles
con el objetivo de encontrar aquel que cumpla todos los supuestos y además se ajuste
adecuadamente a las serie trabajada.
A continuación, la Tabla 79. Estimaciones preliminares serie LR1000(1:50) reporta los
resultados para las estimaciones preliminares encontradas en la etapa de identificación
(Véase Tabla 78. Modelos tentativos para la serie LR1000(1:50)). Cada uno de los
coeficientes estimados tiene consigo su respectivo estadístico t asociado en paréntesis,
así como los criterios de información AIC y SIC y algunas medidas de diagnóstico. Esta
misma notación se utilizará para todas las demás estimaciones de las series restantes.
183
M1 M2 M3 M4 M5 M6 M7 M8
9.492*
(71.39)
9.488*
(65.17)
9.481*
(69.71)
9.518*
(48.07)
9.332*
(94.11)
9.477*
(82.39)
9.490*
(71.63)
9.493*
(61.61)
0.575*
(4.927)
0.554*
(3.726)
-0.194
(-0.99)
0.666*
(3.426)
1.514*
(9.03)
0.598*
(5.01)
0.539*
(0.330)
0.046
(0.314)
0.414**
(2.523)
-0.61**
(-2.60)
0.142
(0.80)
0.226
(1.437)
-0.19
(-0.87)
0.375
(1.46)
-0.39**
(-2.48)
0.903*
(6.437)
-0.172
(-0.88)
-1.31*
(-6.02)
0.549*
(3.99)
-0.109
(-0.69)
0.179
(1.29)
-0.191
(-1.27)
-0.073
(-0.46)
0.502*
(3.567)
0.33**
(2.221)
Akaike AIC
Schwarz SIC
1.0174
1.0946
1.0770
1.1940
1.0145
1.1704
1.071
1.3411
0.6035
0.9278
1.0427
1.1608
1.0558
1.1716
0.9634
1.0793
Lju
ng-B
ox
Q-S
tat
Q(8) 4.6330
[0.705]
4.239
[0.644]
3.317
[0.651]
2.583
[0.275]
2.370
[0.124]
6.897
[0.330]
3.991
[0.678]
2.261
[0.898]
Q(16) 14.541
[0.485]
14.079
[0.444]
10.717
[0.634]
11.275
[0.336]
12.304
[0.197]
16.741
[0.270]
14.364
[0.423]
11.684
[0.632]
Q(20) 19.600
[0.419]
19.093
[0.386]
13.787
[0.682]
15.360
[0.354]
15.240
[0.293]
19.308
[0.373]
19.535
[0.360]
15.028
[0.660]
Shapiro-Wilk 1.1788
[>0.99]
0.9491
[0.065]
0.9318
[0.013]
1.205
[>0.99]
0.9495
[0.084]
0.9528
[0.092]
1.145
[>0.99]
1.1676
[>0.99]
Media | | 0.0000 0.0000 0.0191 0.0541 0.269 0.0320 0.0143 0.03
Estabilidad Si Si Si Si No
Si Si Si
Notas:
1. Valores de probabilidad en paréntesis rectangular []
2. * simboliza significancia al 1%, ** al 5% y *** al 10%. La ausencia de estos simboliza
significancia a ningún nivel comúnmente utilizado.
Tabla 80 Estimaciones preliminares LR1000(1:50)
Observe como coeficiente del primer modelo, correspondiente al modelo AR(1), cuya
ACF, PACF y MINIC arrojaron como el modelo más adecuado satisface la condición de
184
estabilidad puesto que el absoluto del inverso de la raíz de la ecuación auxiliar es menor
que la unidad, es decir | | y además es significativo al 1%. Asimismo, el estadístico
Ljung-Box Q indica que tanto hasta el rezago 8 como el 16 y el 20 los residuos no son
significativamente diferentes de cero. Esto indica que el modelo AR(1) se ajusta bien a los
datos puesto el modelo está utilizando la información disponible determinado por la poca
significancia de los residuos.
Observando el segundo modelo M2 se observa como el único coeficiente que no es
significativamente diferente de cero es el coeficiente , indicando que al incluir el
segundo rezago de el modelo no necesita de éste para explicar la serie. Por lo que al
ser sustraído del modelo para cumplir la condición de parsimonia conllevaría a pararse de
nuevo en M1.
El modelo M3 nos está dejando ver que al incluir el componente estocástico de media
móvil de orden 1 en M2, este hace que el segundo rezago de sea significativo y no
necesite del primer rezago para estimar . Por lo que se deberá probar el M3 ahora
sustrayendo el primer rezago autoregresivo y probando de nuevo su significancia y
condiciones de diagnóstico. Esto se verá más adelante en la reestimación de los modelos
preliminares en la Tabla 80 por lo que su explicación dependerá de la sustracción de
del modelo.
El modelo M4 presentó poca significancia estadística de los coeficientes de media móvil
de 1 a 4 rezagos. Por lo que se deberán ir sustrayendo del modelo dependiendo de cuál
sea el más insignificativo y reestimado (i.e. el que presente el valor de probabilidad más
alto), este proceso iterativo llevará a un modelo del tipo M8, es decir
el cual presenta significancia estadística en cada uno de sus rezagos. Este modelo se
registró en la Tabla 79. Estimaciones preliminares LR1000(1:50) puesto que fue el modelo
tentativo que arrojó el método ARI MAI N en la matriz MAPE. En general, M8 presenta un
mejor desempeño que M1 puesto que la inclusión del rezago 5 de media móvil permite
reducir los criterios de información AIC y SIC por lo que dicho rezago ayuda
significativamente a la reducción de la suma de cuadrados del error. Adicionalmente, la
prueba Ljung-Box de los residuos tanto hasta 8 como 16 y 20 rezagos presentaron una
mayor insignificancia que M1 determinada por un valor de probabilidad más alto. Por lo
que se podría pensar que el modelo M8 captura de manera más adecuada el conjunto de
información disponible que el modelo M1 para estimar la serie de tiempo, mejorando las
dinámicas de corto y largo plazo del modelo M1. Sin embargo, se deberá contrastar su
desempeño con la reestimación de los modelos preliminares presentados en la Tabla 79.
EL modelo M5 presentó el menor criterio de información de todos. Sin embargo, presenta
ciertas otras condiciones que permiten descartarlo como un modelo adecuado. El inverso
de dos de las raíces de la ecuación auxiliar del modelo están por fuera del circulo unitario;
185
el inverso de raíz asociada al coeficiente presentó el valor de 1.02 y el de de 1.314
por lo que se considera un modelo inestable en parámetros y por tanto explosivo y poco
confiable. Adicionalmente, la sustracción iterada de parámetros no significativos termina
llevando a un modelo del tipo M3 sin el coeficiente .
Los modelos M6 y M7 presentaron poca significancia en los parámetros y
respectivamente. Por lo que al sustraerlos, se llegará a un modelo y
M1 respectivamente. Es decir que se deberá probar en la siguiente fase de reestimación
el modelo MA(1) y comparar su desempeño con los demás modelos.
Resumiendo, se tiene que para el siguiente filtro pasarán a probarse únicamente 4
modelos, estos deberán ser comparados entre sí y se deberá escoger aquel modelo que
cumpla con todas las condiciones de diagnóstico. Los resultados se registran a
continuación
M1 M8 M9 M10
9.492*
(71.39)
9.493*
(61.61)
9.485*
(60.58)
9.465*
(104.4)
0.575*
(4.927)
0.539*
(0.330)
0.369**
(2.125)
0.774*
(6.551)
0.561*
(4.641)
0.33**
(2.221)
Akaike AIC
Schwarz SIC
1.0174
1.0946
0.9634
1.0793
0.9990
1.1160
1.1035
1.1799
Lju
ng-B
ox
Q-S
tat
Q(8) 4.6330
[0.705]
2.261
[0.898]
3.989
[0.678]
11.167
[0.132]
Q(16) 14.541
[0.485]
11.684
[0.632]
10.738
[0.706]
21.946
[0.109]
Q(20) 19.600
[0.419]
15.028
[0.660]
14.693
[0.683]
30.555
[0.134]
Shapiro-Wilk 1.1788
[>0.99]
1.1676
[>0.99]
0.9257
[<0.01]
0.9667
[0.352]
Media | | 0.0000 0.03 0.0486 0.0211
Estabilidad Si Si Si Si
Notas:
1. Valores de probabilidad en paréntesis rectangular []
2. * simboliza significancia al 1%, ** al 5% y *** al 10%. La ausencia de estos
simboliza significancia a ningún nivel comúnmente utilizado.
Tabla 81 Estimación fase 2 LR1000(1:50)
186
Se puede observar ahora que todos los modelos son significativos en parámetros, por lo
que la escogencia de uno de ellos para ser catalogado como la mejor aproximación del
mecanismo generador de datos que rige al proceso estocástico de la serie LR1000.
Depende ahora de criterios del investigador sobre la interpretación de los diagnósticos y
criterios de información.
El modelo M10 aunque cumple con todas las condiciones, es un modelo que utiliza muy
poca información disponible puesto que los residuos parecen guardar cierto grado de
correlación serial entre ellos. Esto también se puede ver puesto que es el modelo cuyos
criterios de información son los más altos de todos.
Se tiene entonces que la competencia está ahora entre tres candidatos, correspondientes
a los tres primeros modelos de la Tabla 80. Sin embargo, es el modelo M8 quien muestra
un mejor desempeño debido básicamente a 2 razonamientos. El primero, fue el que
presentó un menor criterio de información tanto AIC como SIC y segundo y más
importante, este modelo captura adecuadamente las relaciones de corto y largo plazo
evidenciadas en la poca correlación serial que sufren los residuales tanto para los rezagos
8 como el 16 y 20. Si se observa esto en el modelo M1, se tiene que es un modelo
evidentemente bueno capturando las relaciones dinámicas del proceso en el corto plazo
pero sufre de más correlación serial entre los grupos de rezagos más lejanos, conjetura
que valida los supuestos preliminares en la etapa de identificación.
En cuanto al modelo M9 parece ser un fuerte competidor del modelo M8 debido a que
captura, con una cantidad menor de información puesto que solo utiliza dos rezagos en el
autoregresivo y 1 en el de media móvil, ciertas condiciones son parecidas a las del
modelo M8. Sin embargo, un supuesto comúnmente utilizado en el análisis de series de
tiempo es la distribución gaussiana de las innovaciones, es decir el cumplimiento de
normalidad en los residuos. Si se observa la prueba de contraste de normalidad de
Shapiro Wilk realizada por medio de ASTEX, ésta permite rechazar la hipótesis nula que
la serie proviene de población normalmente distribuida a diferencia del modelo M8. Por
lo que se escogería entonces este último modelo como el más adecuado.
Se tiene entonces que el modelo escogido para la serie LR1000 a partir de toda la
información suministrada en este capítulo y lo visto en las 3 primeras etapas de Box-
Jenkins corresponde al modelo M8, es decir el polinomio
187
10.6.14 Valor Real Vs Ajuste del Modelo
Gráfica 10 Ajuste Vs. Real serie R250(1:45)
Gráfica 11 Ajuste Vs. Real serie R500(1:50)
0
10000
20000
30000
40000
50000
60000
70000
80000
90000
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43
Un
ida
de
s
Real Vs. Ajuste R250
Real
Ajustado
0
20000
40000
60000
80000
100000
120000
1 3 5 7 9 1113151719212325272931333537394143454749
Un
ida
de
s
Real Vs. Ajuste R500
Real
Ajustado
188
Gráfica 12 Ajuste Vs. Real serie R1000(1:50)
Gráfica 13 Ajuste Vs. Real serie R1500(1:50)
Gráfica 14 Ajuste Vs. Real serie R3000(1:50)
0
5000
10000
15000
20000
25000
30000
35000
40000
1 3 5 7 9 1113151719212325272931333537394143454749
Un
ida
de
s
Real Vs. Ajuste R1000
Real
Ajustado
0
1000
2000
3000
4000
5000
6000
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41
Un
ida
de
s
Real Vs. Ajuste LR1500
Real
Ajustado
0
1000
2000
3000
4000
5000
6000
7000
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45
Un
ida
de
s
Real Vs. Ajuste R3000
Real
Ajustado
189
10.6.15 Esquema Rolling y Algoritmo en MATLAB
Esquema Rolling
El esquema rolling de evaluación de pronóstico fuera de muestra involucra la posibilidad
del reconocimiento de la entrada sucesiva de observaciones que se van generando desde
el proceso estocástico período a período y que de por sí modifican el conjunto de
información disponible en el período t, sobre el cual se estima inicialmente un modelo
tentativo. Esta metodología permite la reestimación del modelo ARIMA(p,d,q) a lo largo
del tiempo para cada nueva observación que se incluye período a período en la muestra
inicial. En general el esquema Rolling permitirá registrar dos aspectos importantes,
primero servirá como punto de comparación entre las diferentes metodologías planteadas
y segundo mostrará hasta que horizonte es capaz de pronosticar el modelo, aspecto
esencial a tener en cuenta en un plan de producción.
Este esquema Rolling supone la necesidad de dividir la muestra en dos submuestras, la
primera una muestra de estimación y otra de evaluación. La forma como se realizó el
esquema se da de la siguiente manera:
Considere el número de observaciones que se utilizarán como la submuestra de
estimación inicial donde se buscará el mejor modelo el cual será
empleado para realizar únicamente el pronóstico de h periodos hacia delante. Esto, desde
la última observación en hasta . Una vez se adiciona el siguiente
dato a la muestra, es reestimado un nuevo modelo ARIMA y pronosticado h
periodos adelante. El proceso continúa estimando y pronosticado hasta que la muestra
estimada tenga un valor de observaciones y se encuentre un modelo
, esto debido a que no tendría sentido alguno la estimación de valores
adicionales si no es posible confrontarlos con valores reales para su evaluación fuera de
muestra.
Por ejemplo, para el caso de TR500 se cuenta con un total de observaciones N=50, si se
toma un total de T= 11 se tendría un valor de =39, que correspondería a el número
inicial de observaciones al que se buscará el mejor modelo y se
pronosticará desde la observación 40 hasta la 45 para un h=6 periodos. Una vez es
incluida la observación 40 en la muestra de estimación, es reestimado y encontrado un
nuevo modelo el cual servirá para el pronóstico de las observaciones 41
a la observación 46. Así, hasta llegar a la estimación del modelo con 44
observaciones dentro de muestra y el pronóstico desde la observación 45 hasta la 50.
Estimaciones posteriores no tendrían sentido debido a que no habría como evaluarlas.
Este esquema se resume en la siguiente tabla para un h=6 y un T=11 en la serie TR500
con N=50
190
Pronóstico
Modelo Nº Obs Desde Hasta
39 40 45
40 41 46
41 42 47
42 43 48
43 44 49
44 45 50
Tabla 82 Ejemplo Esquema Rolling
Al terminar el esquema se concluye con una matriz de (T-h)+1 x h donde cada una de las
filas es el pronóstico de h periodos adelante de cada una de las (T-h)+1 estimaciones
ARIMA y cada una de las columnas de dicha matriz debe ser evaluada bajo algún tipo de
función de pérdida de error de pronóstico, bien sea simétrico o asimétrico como las vistas
al comienzo de este capítulo, con el objetivo de llegar a determinar cómo está
pronosticando el modelo ARIMA en cada uno de los horizonte de tiempo. Es decir, en el
horizonte 1 se contrastarán todos los pronósticos realizados para la siguiente observación
después del período de estimación en cada modelo, para el horizonte 2 todos los
segundos pronósticos después del periodo de estimación de cada modelo y así
sucesivamente hasta completar el horizonte 6, el cual corresponde a todos los pronósticos
del período 6 después de la última observación en cada uno de los modelos estimados.
El presente trabajo consideró un T igual a 11 en todas las series puesto que se terminará
con una matriz de 6x6, la cual tiene como propósito realizar la evaluación para 6 períodos
(número de filas) adelante debido simplemente a que se está trabajando con una muestra
pequeña. Sin embargo, si el tamaño de la muestra es el adecuado, es posible realizar un
número de estimaciones tal que permita encontrar un valor de medida fuera de muestra
con más observaciones de las estudiadas en este trabajo.
Aplicación Práctica – Algoritmo en MATLAB para la evaluación fuera de muestra
Rolling.
El desarrollo práctico de la estimación, diagnóstico, pronóstico y evaluación fuera de
muestra del análisis de las cinco series temporales estudiadas se desarrolló en MATLAB
a partir de la elaboración de un código de programación cuyo objetivo es la evaluación
fuera de muestra bajo el esquema rolling con medias de error simétrico y/o asimétrico
para cada modelo de estimación. Esta estimación viene acompañada de un diagnóstico
del término de perturbación como se describe en la teoría. A continuación se describe la
lógica detrás del algoritmo en MATLAB y como se ha venido trabajando hasta el
momento, se mostrarán los resultados para todas las series.
Descripción del algoritmo
La programación del algoritmo se llevó a cabo a partir de la creación de dos funciones,
una principal llamada Rolling2 y una auxiliar llamada ARIMAFUERA2 ambas
191
autocontenidas en archivos .m en MATLAB y con la condición que la primera hace uso de
la segunda dentro de su función.
La función Rol l i ng2( ser i e, opt i ons) declara la necesidad del ingreso de dos
condiciones de entrada. La primera, <ser i e>, hace referencia a la serie original (sin
transformaciones) que se desea evaluar, en este caso específico TR500. Se dice que no
se deben ingresar transformaciones puesto que el algoritmo brinda la posibilidad de
ingresar el grado de diferenciación de la serie y la función estabilizadora de la varianza
acorde a lo presentado en secciones anteriores. La entrada <opt i ons> es una
declaración del tipo estructura que permite el ingreso de todas las opciones que se
necesitan para el esquema rolling. Esta estructura presenta las siguientes opciones:
ARLags : hace referencia a la matriz de vectores autoregresivos para cada
periodo de estimación, donde cada una de las filas corresponde a cada una de las
estimaciones a realizar en el rolling. Este número de filas debe coincidir con el
número de filas de MALags , mientras que el número de columnas no trae consigo
ninguna restricción, además que debe ser llenada con NaN cuando sea necesario.
Más adelante se mostrará un ejemplo sobre esta entrada.
MALags : hace referencia a la matriz de vectores de media móvil para cada periodo
de estimación, donde cada una de las filas corresponde a cada una de las
estimaciones a realizar en el rolling. Este número de filas debe coincidir con el
número de filas de ARLags , mientras que el número de columnas no trae consigo
ninguna restricción, además que debe ser llenada con NaN cuando sea necesario.
Más adelante se mostrará un ejemplo sobre esta entrada.
D: hace referencia a el grado de diferenciación de la serie u orden de integración.
El valor por defecto es 0.
h: hace referencia al horizonte de pronosticación dentro del esquema rolling. Para
este caso específico h toma el valor de 6 periodos adelante.
Di agnos : toma el valor de ‘ on’ si se desea observar al final de cada estimación
el diagnóstico del término de perturbación mostrando una ayuda tanto por medio
de tests estadísticos (media cero bajo Guerrero (2003, p.144) y prueba de
normalidad Jarque Bera y Lilliefors al 95% de confianza) como por medio de una
representación visual. Esta última dada por el ajuste y pronóstico de la serie, la
función de autocorrelación ACF para determinar si existe autocorrelación cero, la
gráfica de ajuste de la función de densidad de una normal estándar con la función
de densidad de probabilidad del término de perturbación y por último la gráfica de
la serie de residuos con limites para determinar la potencial existencia
de Outliers, así como la línea donde se encuentra la media.
Caso contrario tomará el valor ‘ of f ’ si no se desea imprimir los diagnósticos.
192
El valor por defecto es ‘ of f ’ .
Tr ans: hace referencia al tipo de transformación de varianza que sufre la serie,
ésta puede tomar las siguientes forma:
' Log' - transformación tipo logarítmica
' Rai z ' - transformación tipo raíz cuadrada √
‘ I n Rai z ’ - transformación tipo inversa de raíz cuadrada √
' I nv ' - transformación tipo inversa
' BoxCox' - transformación tipo Box-Cox (1965) véase Sección. 4.4.2.2
' Or i g' - no sufre ningún tipo de transformación
Por defecto se tiene ' Or i g' .
d1_LI NEX y d2_LI NEX: corresponden a los valores de y de la función
LINEX presentada al inicio de este capítulo.
d1_LI NLI N y d2_LI NLI N: corresponden a los valores de y de la función
LINLIN presentada al inicio de este capítulo.
Nótese como por medio del número de filas de ARLags o MALags y el input h se puede
llegar a obtener el valor de T es decir el valor desde el cual se comienza a estimar el
primer modelo, simplemente como ( ) . Es decir que en este caso
particular .
Se procedió entonces a estimar el esquema rolling con el algoritmo propuesto para la
serie LR1000, éste se realizó ingresando el mejor modelo en cada una de las
estimaciones del esquema tanto en el componente autoregresivo como el de media móvil
si era el caso. Además se incluyó del orden de diferenciación D=0 y la transformación tipo
inversa de raíz, acorde a lo visto en la etapa de identificación.
Se tiene entonces que las condiciones de entrada del algoritmo en MATLAB para la serie
LR1000 son :
% Ar gument os de ent r ada opt i ons. ARLags =[ 1] ; opt i ons. MALags =[ 5] ; opt i ons. h =6; opt i ons. Di agnos =' on' ; opt i ons. d1_LI NLI N =Cal _d1_LI NLI N( 3) ; opt i ons. d2_LI NLI N =Cal _d2_LI NLI N( 3) ; opt i ons. Tr ans =' Log' ; ser i e =R1000;
193
Rol l i ng2( ser i e, opt i ons) ;
La estructura <opt i ons> del algoritmo permite identificar cuales opciones son incluidas y
cuáles no, es decir, existen unas condiciones default o por defecto que permiten realizar
el procedimiento si el usuario no ingresa una opción. Por ejemplo, en este caso no se
incluyeron las opciones d1_LI NLEX ni d2_LI NLEX debido a que no serán utilizadas y
por tanto el algoritmo no las tiene en cuenta y no imprimirá resultados de estas, además
se tomó el valor del orden de integración por defecto es decir D=0. Las opciones
d1_LI NLI N y d2_LI NLI N representan posiciones en los vectores de la Tabla 24
representados por las columnas 2 y 3 respectivamente, en este caso la posición 2 hace
referencia a la serie LR1000.
Para este caso particular el modelo de estimación previamente identificado ARMA([1],[5])
para la serie LR1000 entre las observaciones (1:50) se presentó como el mejor modelo a
lo largo de todas las corridas del esquema rolling. Es decir, el modelo se mantuvo al ir
incluyendo una observación en cada período. Observe además que la función Rolling2
permite identificar esta condición de entrada puesto que no es necesario ingresar una
matriz de rezagos AR ni MA, sino que la función identifica ese modelo como el único
modelo a estimar a lo largo de todas las seis corridas el esquema.
10.7 Complemento ASTEX
10.7.1 Ventana Para la Instalación del Add/In
Ilustración 15 Ventana Instalación ASTEX
10.7.2 Estabilización de la Varianza con ASTEX
194
El código de programación a través de ASTEX básicamente pide al usuario que
seleccione la serie de interés en el programa Microsoft Excel, se solicita de manera
opcional que se le dé un nombre a la serie y que seleccione si desea obtener la potencia
que minimice el coeficiente de variación automáticamente o si desea ver los resultados
para una potencia especificada por el mismo.
Es importante aclarar en este punto que la idea de Búsqueda automática de la potencia
dista por completo de su estimación exacta. Para ello Box y Cox (1964) mostraron que el
estimador de máxima verosimilitud de es aquel que minimiza el error cuadrático medio
del modelo ajustado de la serie de datos normalizada. Dentro de esto se estaría tratando
la potencia como un parámetro de transformación que puede ser estimado de los datos.
Incluyendo así el parámetro en el modelo
y por tanto escogiendo dicho valor de lambda que haga mínima la función de
pérdida del error (para una discusión más amplia sobre este tema diríjase a Box y Cox
( 964) o Weil ( 006)). Por ello “el método est basado en apro imaciones y que por
consiguiente, conviene utilizarlo esencialmente para discriminar entre transformaciones
que a priori se consideren apropiadas, como la transformación logarítmica o la lineal, más
no para obtener estimaciones exactas del parámetro con mucha e actitud” (Guerrero
(2003), p. 110)
Debido a que la serie debe estar ordenada de una manera específica como se mencionó
en la teoría, dividiéndolo en H grupos de R observaciones cada uno, se incluyó también la
posibilidad al usuario de agruparlos de manera automática a través de un botón en el
formulario del usuario (ver ilustración 16). Por último se le pide al usuario que seleccione
la celda donde desea imprimir los resultados en Excel.
Sin entrar en detalles sobre la programación se intentará mostrar a partir de la realización
de un ejemplo paso a paso la funcionalidad del código en ASTEX. Por lo que se
procederá a utilizar la serie R1000 como referencia.
195
Ilustración 16 Formulario para la estabilización
automática de la varianza
Primero que nada se abre el formulario Transformación Estabilizadora de Varianza el cual
contiene de manera interactiva para el usuario el código de programación desarrollado.
Este formulario puede ser accedido desde el botón “Estab Varianza” en la cinta de
opciones, el cual se representa como
Debido a que la variable R1000 se encuentra en una sola columna, fue necesario hacer
uso del botón Ordenar Serie dentro del formulario. Al hacer click en éste se abre otro
formulario que guiará al usuario en el ordenamiento de la serie como se muestra en el
ilustración 17. Dicho formulario se encuentra dividido en cuatro partes: en la primera se le
pide al usuario que seleccione la serie original la cual debe ser de dimensiones Nx1, ésta
se preselecciona automáticamente acorde a lo que el usuario tenga seleccionado en la
hoja de cálculo, en la segunda parte se pide que se seleccione si la serie está dada en
periodicidad mensual o trimestral, la tercera se pide que se establezcan las condiciones
iniciales de la serie, esto es, primer mes (o trimestre) y el año de inicio, por último se le
pide al usuario que diga en que celda desea imprimir los resultados.
196
Ilustración 17 Formulario Ordenar Serie
Una vez llenado el formulario Ordenar Serie se procede a dar click en el botón “Aceptar”
esto hará que se imprima la serie ordenada en la salida seleccionada, de esta manera
R1
00
0
Año-> 2010 2011 2012 2013
Enero 7260 14196 11928 14976
Febrero 10596 16080 12276 17100
Marzo 20532 21492 11736 15336
Abril 8964 7464 13320 16788
Mayo 15468 7560 6660 14076
Junio 16380 7824 7056 23697
Julio 17700 17064 9456 21060
Agosto 24732 17520 11460 20286
Septiembre 18924 9000 3252 33006
Octubre 18096 10632 4260 19380
Noviembre 11208 10236 7104 24252
Diciembre 9528 9948 7500 33660
Tabla 83 Serie R1000 Ordenada para Estabilización de Varianza
como se puede observar la serie que estaba en columnas quedó ordenada según los
requerimientos propuestos por Guerrero (2003), donde todos los H grupos presentan
homogeneidad en el número de observaciones. Para este caso específico se cuenta con
que H = 4 y R = 12. Donde fueron descartados los dos primeros datos del 2014.
Una vez ordenada la serie se da paso a la estabilización de la varianza. Para ello se
llenan los requerimientos pedidos en el formulario Transformación Estabilizadora de
Varianza (ilustración 16). Como primera instancia se han ingresado manualmente las
potencias a evaluar acorde a los valores de la Tabla 16. Valores típicos de y su
197
transformación y se ha seguido el modelo presentado en la Tabla 56 Tabla
Transformaciones de potencia, esto generará los siguientes resultados.
Transformación Estabilizadora de Varianza T(R1000)
Potencia(λ)
Año {Grupo} -1 -0.5 0 0.5 1
2010 {1} 0.000024 0.002950 0.3607 44.096 5391.392
2011 {2} 0.000030 0.003386 0.3773 42.048 4685.630
2012 {3} 0.000043 0.004011 0.3770 35.431 3330.151
2013 {4} 0.000015 0.002137 0.3107 45.175 6567.489
Coef. Variación 0.419362 0.252193 0.088182 0.104777 0.271078
M(λ) 0.000028 0.003121 0.356423 41.68 4993.66
de(λ) 0.000012 0.000787 0.031430 4.36 1353.67
Tabla 84 Determinación λ de para la variable R1000
La Tabla 83. Determinación λ de para la variable R1000, muestra que el menor coeficiente
de variación está dado por la potencia λ=0 con una variabilidad cercana al 8.8%. Por lo
que la transformación estabilizadora de la serie será igual a
esto debido a que la transformación de la potencia que estabiliza la varianza para un
lambda igual a cero será el logaritmo natural de la serie original, en concordancia con las
transformaciones típicas presentadas anteriormente.
Por otro lado, cuando se hace uso de la opción Búsqueda Automática en el formulario se
da paso a la herramienta Solver de Excel a que encuentre de manera automática el valor
de la potencia para el cual el coeficiente de variación se hace mínimo. Cabe anotar que
no existe restricción en el acotamiento de lambda a la hora de la realización del parámetro
que minimiza el coeficiente de variabilidad. Esto conlleva a una potencia con
un coeficiente de variabilidad igual a el cual es cerca de 4 puntos porcentuales
menor que el coeficiente hallado de manera tabulada. Este valor nos está diciendo que la
potencia a la cual se debería elevar la serie R1000 es . Sin embargo, bajo lo
mencionado anteriormente por (Guerrero (2003), p. 110) sobre el propósito de este
método se aproxima este valor de lambda a su transformación conocida más cercana la
cual es el logaritmo natural determinado por pues el propósito no es una estimación
muy aproximada de lambda. Lo interesante de esta Búsqueda Automática propuesta en el
formulario radica en el hecho que no es necesario hacer uso del método tabulado, sino
que el mismo código se encarga de estimar el valor de lambda para el cual la variabilidad
se hace mínima.
Cabe anotar que esta búsqueda automatizada de la potencia es un componente adicional
a la teoría presentada por Guerrero (2003) y se realizó como una extensión al método. A
198
continuación en la Tabla 84. Transformación estabilizadora de varianza R1000 se
presentan los resultados obtenidos por el código
Transformación Estabilizadora de Varianza T(R1000)
Potencia(λ)
Año {Grupo} 0.223257367 Sh Zh
2010 {1} 3.083910 5391.39 14949.00
2011 {2} 3.095590 4685.63 12418.00
2012 {3} 2.866258 3330.15 8834.00
2013 {4} 2.870713 6567.49 21134.75
Coef. Variación 0.042915
M(λ) 2.979118
de(λ) 0.127849
N= 50
n= 48
H= 4
R= 12
Tabla 85 Transformación estabilizadora de varianza R1000
La Gráfica 15. Transformación Estabilizadora de Varianza LR1000 muestra la diferencia
visualmente sobre la serie original R1000 y la transformada LR1000, se observa como los
picos altos de variabilidad disminuyeron considerablemente debido al uso de la potencia
λ Visualmente parece no existir la necesidad de estabilizar la media a la serie debido a
que el nivel de ésta está no cambiando en el tiempo, pero esto se concluirá únicamente
con un análisis profundo, el cual se desarrollará en la siguiente sección.
Gráfica 15 Transformación Estabilizadora de Varianza LR1000
0
2
4
6
8
10
12
0
5000
10000
15000
20000
25000
30000
35000
40000
1 3 5 7 9 11131517192123252729313335373941434547
R1000
LR1000
199
Con el propósito de llegar a detallar aún más el proceso utilizado, se procede a mostrar
los cálculos para el año 2010 o Grupo {1} en la Tabla 83. Determinación λ de para la
variable R1000 con el método manual. Primero se calcula el promedio simple del grupo
con las R=12 observaciones
( )
en seguida se procede a calcular la desviación estándar del grupo, así
√
( )
( )
( )
de estos dos parámetros se obtiene que
los cuales corresponden a los resultados del primero renglón de la Tabla 83. Lo siguiente
es calcular la media y la varianza de la columna correspondiente a la potencia -1 y de esta
manera calcular el coeficiente de variabilidad a partir de la división de la media con la
desviación de cada potencia. De este modo se tiene que
∑ (
)
√
∑ [(
) ]
donde se obtiene que el coeficiente de variabilidad está dado por
el cual corresponde a el resultado para la primera columna de la Tabla 83, de la misma
manera se realiza el cálculo del CV para cada una de las 5 potencias. Las cuales se
realizan de manera automática por medio del código presentado.
200
10.7.3 Estabilización del Nivel Anderson con ASTEX
El método de Anderson (1976) es bastante mecánico, sencillo e intuitivo. Como se
mencionó anteriormente, en el primer paso es necesario obtener las 3 diferenciaciones de
la serie transformada es decir y . Una vez realizada la
diferenciación hasta de orden 3, sencillamente queda aplicar la ecuación de desviación
estándar (D4) a cada una de las cuatro diferencias teniendo en cuenta el número de
grados de libertad que se pierden por el orden de la diferenciación. De estas cuatro
desviaciones se escoge el mínimo y el orden de la diferencia asociado debería coincidir
con el orden de integración requerido o por lo menos sugerirlo. De modo tal que se
obtiene para la serie
Orden de integración 0 1 2 3
Desviación Estándar 0.233165 0.195276 0.491233 1.518315
Tabla 86 Desviaciones Estándar de LR1000. Estabilización Nivel
Se puede observar que para el caso específico de la variable , es en la diferencia
de primer orden donde se presenta el mínimo valor. Esto estaría dando
evidencia que el orden de integración de dicha variable sería y por tanto se
necesitaría diferenciarla una vez para que ésta se vuelva estacionaria en media. Sin
embargo, esta conclusión deberá ser complementada con las pruebas de raíz unitaria
más adelante puesto que si se observa bien, la diferencia entre el orden de integración 1 y
el 0 no es tan significativamente diferente, y como lo siguiere Guerrero (2003) se debe
tener mucho cuidado en tomar este valor como definitivo si la diferencia no es
significativamente alta.
Haciendo uso de ASTEX se da la opción al usuario de realizar este procedimiento
automáticamente para cualquier serie mediante de la ejecución del código de
programación en VBA E cel el cual est contenido en el botón “Estab. Nivel Anderson”
en la cinta de opciones de ASTEX y presenta la siguiente forma
Al presionar esta opción se abre un formulario (ver ilustración 18. Formulario
Estabilización Nivel Anderson (1976)), el cual pide al usuario seleccionar el vector de la
serie de entrada, que en este caso correspondía a cada una de las cinco series
transformadas de varianza, además de preguntarle al usuario si desea ver los resultados
de las desviaciones estándar acorde a la ecuación (D4) presentada anteriormente para
cada una de las 3 diferencias posibles.
201
Ilustración 18 Formulario Estabilización Nivel Anderson (1976)
De llegar a ser el caso que se desee imprimir los resultados de la estabilización, se le
solicita al usuario informar donde desea imprimir los resultados. Estos resultados se
imprimen en una matriz de (7x2) o (6x2) dependiendo si la casilla de Rótulo se encontraba
o no activa al momento de correr la programación. A continuación, el código imprime el
nombre de la serie según el encabezado que tenía si la opción Rótulo estaba activada, los
resultados de la ecuación (D4) para cada una de las diferencias {0,1,2,3} y el valor mínimo
de desviación. Por último, se resalta la fila correspondiente a la diferencia cuya desviación
sea dicho valor mínimo. Se tiene entonces que para la serie LR1000 los resultados en el
código ASTEX para la estabilización del nivel se presentarían de la siguiente forma.
Estb. Nivel LR1000
Diferencia Desviación
0 0. 233165
1 0. 195276
2 0. 491233
3 1. 518315
Mínimo 0. 195276
Tabla 87 Resultados Anderson(1976) ASTEX
los cuales coinciden con los valores presentados en la Tabla 85. Desviaciones Estándar
de LR1000. Estabilización Nivel. Si por el contrario, no se desean imprimir los resultados
de cada una de las desviaciones para cada diferencia, sino que solo se desea sabe cuál
es su orden de integración bajo este método, se procede entonces a desactivar la opción
“ mprimir Resultados” y el código simplemente emite un mensaje diciendo cual es la
diferencia que presenta el valor de la ecuación (D4) mínimo; para el caso de la serie
LR1000 se presentaría de la siguiente manera.
202
Ilustración 19 Mensaje no imprimir, Estb. Nivel Anderson
10.7.4 Prueba de Raíz Unitaria ADF con ASTEX
Simplemente seleccionando previamente la serie y presionando el botón
se da paso entonces al formulario de raíz unitaria (ver ilustración 20), el cual pregunta al
usuario por la posibilidad de incorporar la constante y tendencia (D7), solo la constante
(D6) o ninguna de ellas (D5) dentro del modelo de regresión auxiliar estimado por el
método de mínimos cuadrados ordinarios y cuyo estadístico de prueba corresponde al
valor o del coeficiente de interés .
Al seleccionar las opciones de entrada y dar “Aceptar” aparecer un mensa e preguntando
como desea llamar la nueva hoja que se generará con resultados de la prueba de raíz
unitaria ADF exactamente iguales a los mostrados en las tablas 61 y 62. Por defecto el
programa recomendará un nombre de hoja dependiendo si la serie incluye o no rótulos, es
decir, si esta opción fue o no seleccionada en el formulario.
Ilustración 20 Formulario Prueba de Raíz Unitaria ADF ASTEX
203
10.7.5 Diagnostico Normalidad y Media Cero con ASTEX
Simplemente teniendo la serie de residuos del modelo estimado, la cual se puede obtener
desde cualquier paquete estadístico, es posible realizar un diagnóstico de normalidad,
autocorrelación y media cero desde ASTEX. Como se mencionó anteriormente, debido a
que la muestra es menor a 50 observaciones, se hizo uso del estadístico Shapiro Wilk
para probar normalidad. Esto puesto que el estadístico Jarque Bera, el cual puede ser
obtenido desde el botón
presenta complicaciones para muestras pequeñas como la estudiada en este caso. Es por
ello que para llegar a obtener el test de normalidad Shapiro Wilk, es necesario
preseleccionar la serie de residuos y dar click en
el cual desplegará una lista con dos opciones “Distribución normal” y “Media Cero” a lo
que se da click en “Distribución Normal”. Se abrir entonces un formulario igual al
presentado en la Ilustración 21 el cual viene con el rango de entrada preseleccionado y
simplemente es necesario ingresar la celda donde se desean imprimir los resultados del
test, seleccionar la prueba Shapiro Wilk de la lista de opciones y dar click en “Aceptar”. Se
mostrarán entonces los resultados del test tanto por medio del estadístico como por
medio de su valor de probabilidad, todo esto determinado por las tablas Shapiro y Wilk
(1965).
204
Ilustración 21 Formulario Supuesto Normalidad
Ahora bien, si se desea ver el grafico QQ-Plot para probar normalidad de manera visual.
Se procede a seleccionar el botón “QQ Normal” dentro del formulario de la ilustración 21
teniendo diligenciado el rango de entrada y la celda de salida. Este arrojó las siguientes
gráficas para los modelos M8 y M9
Gráfica 16 QQ plot modelo M8 serie LR1000(1:50)
205
Gráfica 17 QQ plot modelo M9 serie LR1000(1:50)
donde es posible ver como se soportan los resultados del test Shapiro Wilk puesto que los
puntos dentro de la gráfica de M9 parecen no ajustarse tan bien a la línea de tendencia
lineal como lo hace el modelo M8 donde están más pegados a la línea. Esto permite
evidenciar una vez más que los residuos del modelo M9 no provienen de una población
normal, mientras que los del modelo M8 sí.
Por último, los resultados de la verificación del supuesto 1 del modelo, el cual fue tomado
de la teoría de Guerrero (2003) se obtienen por medio del mismo botón diagnóstico visto
anteriormente pero ahora presionando la opción “ edia Cero” la cual desplegar dos
ventanas consecutivas. La primera ventana (Ilustración 22) tendrá preseleccionada la
serie de residuos a la cual se le realizara la prueba, y la segunda ventana (Ilustración 23)
preguntará por donde desea imprimir los resultados del test. Este debe ser una sola celda.
Ilustración 22 Ventana Media Cero 1
206
Ilustración 23 Ventana Media Cero 2
una vez ingresado las entradas en las dos ventanas, se imprimirán los resultados de la
prueba de media cero, mostrando el valor absoluto de y la decisión de rechazo o no del
supuesto dependiendo si | | es menor o mayor que dos. Estos resultados fueron
registrados anteriormente en las tablas 78 y 79 para cada uno de los modelos estimados.
10.7.6 Integración GAMS –ASTEX para la planeación de la producción
Para llegar a utilizar el complemento simplemente se presiona el botón GAMS-ASTEX en
el grupo Plan Producción
el cual da paso a una hoja de cálculo con las matrices de respuesta de las variables de
interés para la toma de decisiones de la organización. En esta página se pueden
encontrar siete botones. A continuación se procederá a explicar la funcionalidad de cada
uno de ellos.
1. Buscar Archivo (.txt): éste botón abre una ventana de búsqueda de archivos
internos del tipo (.txt) en el computados donde se esté trabajando. Se procede a
buscar entonces el archivo de texto que contiene el código en GAMS desde el cual
se trabajará en ASTEX. Es posible identificar que el archivo fue preseleccionado
satisfactoriamente puesto que se copiará la ruta del mismo en la celda contigua
derecha a RUTA GAMS (.txt).
2. Copiar Modelo (.txt): una vez preseleccionada la ruta del archivo de texto en el
paso anterior, se procede a copiar este archivo en el Input Box que leerá GAMS
externamente desde Excel. De llegarse a copiar con éxito el modelo entonces se
desplegará una ventana informativa del siguiente tipo
207
Ilustración 24 Ventana modelo copiado con éxito ASTEX
caso contrario, si la ruta no es correcta o no existe entonces se desplegará una
ventana del siguiente tipo
Ilustración 25 Ventana archivo .txt no encontrado ASTEX
cabe anotar que este botón no estará disponible sino hasta el momento en el que
se haya buscado un archivo en el paso anterior.
3. Editar Modelo (opcional): una vez se halla copiado el modelo correctamente es
posible editarlo directamente desde ASTEX por medio del botón Editar Modelo.
Este da paso a una nueva hoja la cual mostrará el cogido GAMS con el que se
trabajará y desde el cual será posible su edición directa antes de correr el modelo.
Cabe anotar que si se desea editar directamente en el archivo .txt desde el cual
fue leído el código, deben seguirse los pasos 1 y 2 para que tenga efectos sobre la
corrida del modelo. Este botón permite por tanto la edición directa sin necesidad
de realizar los pasos previos de búsqueda y copiado del modelo.
4. Editar Datos (opcional): este botón permite la edición de datos de entrada del
modelo como parámetros y constantes desde Excel. Se abrirá una hoja de cálculo
la cual contiene diferentes tablas, una para cada parámetro, y desde la cual la
organización tiene la posibilidad de editar condiciones de entrada si estas
cambian. Es decir, si por ejemplo los costos de almacenamiento de producto
terminado cambian por alguna circunstancia, es posible editar estos valores
fácilmente gracias a este botón.
208
5. Resolver Plan de Producción: una vez se tenga consignado el modelo deseado
a correr desde GAMS y se esté satisfecho con las condiciones de entrada del
modelo, se procederá entonces a ejecutar el plan de producción por medio de este
botón. Al oprimirlo, se da paso a ejecutar GAMS desde ASTEX de manera externa,
sin necesidad siquiera de tener GAMS abierto. Una vez ejecutado el modelo desde
GAMS aparecerá dentro de cada una de las matrices de la página principal los
resultados de cada variable de decisión del plan de producción. Estas variables
son:
Costo total de la propuesta
Número de unidades a producir en tiempo normal
Número de unidades a producir en tiempo extra
Inventario final de producto terminado
Número de horas extra necesarias
Número de trabajadores totales necesarios
Número de personas contratas
Número de personas despedidas
Además de cada una de las variables de respuesta, aparecerá una ventana la cual
tiene el propósito de otorgar información sobre las condiciones de corrida del
modelo como el método utilizado, el número de ecuaciones, número de variables,
el estado de la solución del mismo (optimo o no factible) , número de iteraciones y
el tiempo computacional invertido. Para el ejemplo propuesto véase Ilustración 3.
Ventana condiciones del modelo GAMS ASTEX.
Cabe anotar que si el cogido de programación está mal estructurado, aparecerá
una ventana en ASTEX indicando dicha condición y por tanto no se presentará
ningún resultado.
6. Ver Listing (opcional): un Listing es un archivo de GAMS que permite visualizar
todas las salidas, condiciones y resultados entregados por el modelo en un archivo
tipo texto. Esta opción permite por tanto visualizar este resultado en el lenguaje
GAMS desde ASTEX. Se abrirá una hoja la cual permite visualizar este Listing
desde un Input Box.
7. Limpiar Todo: este botón permite limpiar todas las matrices dentro de respuesta y
las condiciones de salida del modelo para una nueva reestimación. Cabe anotar
que no se borrará nada dentro de los datos de entrada o el modelo, únicamente
las condiciones de salida del mismo.
209
10.8 Códigos De Programación
10.8.1 Código VBA para la
Extracción de las Series de
Interés en Consolidado de
Ventas.
Sub ExtracciónInfo()
‘**************************************************
‘* Realizado por Juan Camilo Díaz H *
‘* Fecha 6 diciembre 2013 *
‘* Pontificia Uni ersidad Ja eriana *
‘**************************************************
Dim LastRow As Long
Application.ScreenUpdating = False
Application.Calculation = xlCalculationManual
LastRow =
ThisWorkbook.Sheets("Consolidado").Range("A" &
Rows.Count).End(xlUp).Row
Ref = ActiveSheet.Range(Selection.Address)
Sum = 0
For i = 2 To 49
For j = 2 To LastRow
If
ThisWorkbook.Sheets("Consolidado").Range("D" & j)
= Ref Then
If
Year(ThisWorkbook.Sheets("Consolidado").Range("B"
& j)) = ActiveSheet.Range("A" & i) Then
If
Month(ThisWorkbook.Sheets("Consolidado").Range("
B" & j)) = ActiveSheet.Range("B" & i) Then
Sum = Sum +
ThisWorkbook.Sheets("Consolidado").Range("H" & j)
End If
End If
End If
Next j
ActiveSheet.Range("C" & i) = Sum
Sum = 0
Next i
MsgBox "Proceso terminado", vbInformation
Application.ScreenUpdating = True
Application.Calculation = xlCalculationAutomatic
End Sub
10.8.2 Código VBA para la
Automatización de la
Transformación
Estabilizadora de Varianza
Ordenamiento de la Serie
Sub OrdenaSerie(R As Range, mensual As Integer,
trimestral As Integer, InputMes As Integer,
InputTrimes As Integer, InputYear As Integer, rot As
Integer, OutPut As Range)
Dim Fecha As Date
Dim ChangeYears As Integer
On Error Resume Next
Application.ScreenUpdating = False
Application.Calculation = xlCalculationManual
If mensual = 1 Then
Fecha = "" & InputMes & "/" & InputYear & "" 'Fecha
de inicio de la serie Opciones: Mensual
End If
If trimestral = 1 Then
If InputTrimes = 1 Then InputTrimes1 = 1
If InputTrimes = 2 Then InputTrimes1 = 4
If InputTrimes = 3 Then InputTrimes1 = 7
If InputTrimes = 4 Then InputTrimes1 = 10
Fecha = "" & InputTrimes1 & "/" & InputYear & ""
'Fecha de inicio de la serie Opciones: TriMensual
End If
n = R.Rows.Count
m = R.Columns.Count
ReDim iYear(n - rot)
ReDim iMonth(n - rot)
' Creacion ID Mensual
If mensual = 1 Then
ReDim mes(n - rot)
For i = 1 To n - rot
mes(i) = DateAdd("m", i - 1, Fecha)
iYear(i) = Year(mes(i))
iMonth(i) = Month(mes(i))
Next i
End If
'Creacion ID Trimestral
If trimestral = 1 Then
ReDim trimes(n - rot)
For i = 1 To n - rot
trimes(i) = DateAdd("q", i - 1, Fecha)
iYear(i) = Year(trimes(i))
iMonth(i) = Month(trimes(i))
Next i
End If
ChangeYears = 0
For i = 1 To n - rot - 1
If iYear(i) <> iYear(i + 1) Then
ChangeYears = ChangeYears + 1
End If
210
Next i
If mensual = 1 Then
If rot = 1 Then OutPut(1, 1) = R(1, 1)
If rot = 0 Then OutPut(1, 1) = "Serie"
Range(OutPut(1, 1), OutPut(13, 1)).Merge
OutPut(1, 1).Font.Bold = True
OutPut(1, 2) = "Año->"
OutPut(1, 2).Font.Bold = True
OutPut(2, 2) = 1
OutPut(3, 2) = 2
OutPut(4, 2) = 3
OutPut(5, 2) = 4
OutPut(6, 2) = 5
OutPut(7, 2) = 6
OutPut(8, 2) = 7
OutPut(9, 2) = 8
OutPut(10, 2) = 9
OutPut(11, 2) = 10
OutPut(12, 2) = 11
OutPut(13, 2) = 12
For i = 0 To ChangeYears
OutPut(1, 3 + i) = InputYear + i
OutPut(1, 3 + i).Font.Bold = True
Next i
K = 1
For i = 1 To 12
If iMonth(K) = OutPut(i + 1, 2) Then
OutPut(i + 1, 3) = R(K + rot)
K = K + 1
End If
Next i
conta = 1
For i = 1 To ChangeYears
For j = 1 + rot To n
If iYear(j - rot) = OutPut(1, 3 + i) Then
conta = conta + 1
OutPut(conta, 3 + i) = R(j)
End If
Next j
conta = 1
Next i
OutPut(2, 2) = "Enero"
OutPut(3, 2) = "Febrero"
OutPut(4, 2) = "Marzo"
OutPut(5, 2) = "Abril"
OutPut(6, 2) = "Mayo"
OutPut(7, 2) = "Junio"
OutPut(8, 2) = "Julio"
OutPut(9, 2) = "Agosto"
OutPut(10, 2) = "Septiembre"
OutPut(11, 2) = "Octubre"
OutPut(12, 2) = "Noviembre"
OutPut(13, 2) = "Diciembre"
With OutPut(1, 1)
.Orientation = xlUpward
.HorizontalAlignment = xlCenter
.VerticalAlignment = xlCenter
.BorderAround
End With
With Range(OutPut(1, 2), OutPut(13, 3 +
ChangeYears))
.HorizontalAlignment = xlCenter
.Font.Size = 10
End With
End If
If trimestral = 1 Then
If rot = 1 Then OutPut(1, 1) = R(1, 1)
If rot = 0 Then OutPut(1, 1) = "Serie"
Range(OutPut(1, 1), OutPut(5, 1)).Merge
OutPut(1, 1).Font.Bold = True
OutPut(1, 2) = "Año->"
OutPut(1, 2).Font.Bold = True
OutPut(2, 2) = 1
OutPut(3, 2) = 4
OutPut(4, 2) = 7
OutPut(5, 2) = 10
For i = 0 To ChangeYears
OutPut(1, 3 + i) = InputYear + i
OutPut(1, 3 + i).Font.Bold = True
Next i
K = 1
For i = 1 To 4
If iMonth(K) = OutPut(i + 1, 2) Then
OutPut(i + 1, 3) = R(K + rot)
K = K + 1
End If
Next i
conta = 1
For i = 1 To ChangeYears
For j = 1 + rot To n
If iYear(j - rot) = OutPut(1, 3 + i) Then
conta = conta + 1
OutPut(conta, 3 + i) = R(j)
End If
Next j
conta = 1
Next i
OutPut(2, 2) = "I Trim"
OutPut(3, 2) = "II Trim"
OutPut(4, 2) = "III Trim"
OutPut(5, 2) = "IV Irim"
With OutPut(1, 1)
.Orientation = xlUpward
.HorizontalAlignment = xlCenter
.VerticalAlignment = xlCenter
.BorderAround
End With
211
With Range(OutPut(1, 2), OutPut(5, 3 +
ChangeYears))
.HorizontalAlignment = xlCenter
.Font.Size = 10
End With
End If
Range(OutPut(1, 2), OutPut(1, 3 +
ChangeYears)).Select
With Selection.Borders(xlEdgeBottom)
.LineStyle = xlDouble
.Weight = xlThick
.ColorIndex = xlAutomatic
End With
OutPut(1, 1).Select
Application.ScreenUpdating = True
Application.Calculation = xlCalculationAutomatic
End Sub
Estabilización de la Varianza
Sub EstabVarianza(R As Range, OutPut As Range,
TituloSerie As String, Lambda As Double, automatic
As Boolean)
'CÓDIGO: +++TRANSFORMACIÓN
ESTABILIZADORA DE VARIANZA+++ *
'* Basado en teoría:
*
'* Líbro: Análisis Estadístico de Series de
tiempo económicas *
'* Autor: Víctor Manuel Guerrero
*
'* 2ª Edición Editorial: Thompson Página:
108 *
'* Realizado Por: Juan Camilo Díaz H
*
'* Fecha: Octubre 2013
*
'* PONTIFICIA UNIVERSIDAD JAVERIANA
*
'*
*
'* No tocar ni cambiar nada del código que se
presenta a continuación *
'*************************************************************
*************************************
'Para seleccionar la serie sin rotulo y seleccionar el
rotulo por aparte
On Error Resume Next
Application.ScreenUpdating = False
n = R.Rows.Count
m = R.Columns.Count
Ntot = 0
Nb = 0
nReal = 0
ReDim Nblanco(m)
For i = 1 To m
For j = 1 To n
If R(j, i) <> "" Then
Ntot = Ntot + 1
End If
If R(j, i) = "" Then
Nb = Nb + 1
End If
Next j
Nblanco(i) = Nb
Nb = 0
Next i
For i = 1 To m
NTblanco = NTblanco + Nblanco(i)
Next i
'Número de columnas que están completas
H = 0
For i = 1 To m
If Nblanco(i) = 0 Then
H = H + 1
End If
Next i
nReal = n * H
ReDim Zyear(H)
ReDim Syear(H)
'Cálculo de Zbarra h
cont1 = 0
For i = 1 To m
If Nblanco(i) = 0 Then
For j = 1 To n
SumZ = SumZ + R(j, i)
Next j
Zyear(i - cont1) = SumZ / n
SumZ = 0
Else
cont1 = cont1 + 1
End If
Next i
'Cálculo de Sh
cont2 = 0
For i = 1 To m
If Nblanco(i) = 0 Then
For j = 1 To n
SumS = SumS + (R(j, i) - Zyear(i - cont2)) ^ 2
Next j
Syear(i - cont2) = Sqr(SumS / (n - 1))
SumS = 0
Else
cont2 = cont2 + 1
End If
Next i
212
OutPut(1, 1) = "Transformación Estabilizadora de
Varianza T(" & TituloSerie & ")"
OutPut(1, 1).Font.Bold = True
OutPut(3, 1) = "Año"
OutPut(3, 1).Font.Bold = True
OutPut(4 + H, 1) = "Coef. Variación"
OutPut(4 + H, 1).Font.Bold = True
Range(OutPut(4 + H, 1), OutPut(4 + H, 2)).Merge
OutPut(4 + H + 3, 2) = "N="
OutPut(4 + H + 3, 3) = Ntot
OutPut(4 + H + 4, 2) = "n="
OutPut(4 + H + 4, 3) = nReal
OutPut(4 + H + 5, 2) = "H="
OutPut(4 + H + 5, 3) = H
OutPut(4 + H + 6, 2) = "R="
OutPut(4 + H + 6, 3) = n
OutPut(3, 2) = "{Grupo}"
OutPut(3, 2).Font.Bold = True
OutPut(2, 3) = "Potencia(" & ChrW(955) & ")"
OutPut(2, 3).Font.Bold = True
OutPut(3, 3) = Lambda
For i = 1 To H
OutPut(3 + i, 2) = "{" & i & "}"
Next i
For i = 1 To m
If Nblanco(i) = 0 Then
Fecha = R(1, i).Offset(-1, 0)
GoTo sigue
End If
Next i
sigue:
For i = 0 To (H - 1)
OutPut(4 + i, 1) = Fecha + i
Next i
OutPut(4 + H + 1, 2) = "M(" & ChrW(955) & ")"
OutPut(4 + H + 1, 2).Font.Italic = True
OutPut(4 + H + 2, 2) = "det(" & ChrW(955) & ")"
OutPut(4 + H + 2, 2).Font.Italic = True
OutPut(3, 4) = "Sh"
OutPut(3, 4).Font.Bold = True
OutPut(3, 5) = "Zh"
OutPut(3, 5).Font.Bold = True
For i = 1 To H
OutPut(3 + i, 4) = Syear(i)
OutPut(3 + i, 5) = Zyear(i)
Next i
For i = 1 To H
OutPut(3 + i, 3).Formula = "=" & OutPut(3 + i,
4).Address & "/" & OutPut(3 + i, 5).Address & "^(1-" &
OutPut(3, 3).Address & ")" & ""
Next i
'Cálculo Promedio M(Lambda)
OutPut(4 + H + 1, 3).Formula = "=AVERAGE(" &
Range(OutPut(4, 3), OutPut(3 + H, 3)).Address & ")"
'Cálculo de det(Lambda)
OutPut(4 + H + 2, 3).Formula = "=STDEV(" &
Range(OutPut(4, 3), OutPut(3 + H, 3)).Address & ")"
'Coeficiente de Variación
OutPut(4 + H, 3).Formula = "=" & OutPut(4 + H + 2,
3).Address & "/" & OutPut(4 + H + 1, 3).Address & ""
For i = 1 To (H + 3)
OutPut(3 + i, 3).NumberFormat = "0.0000000"
Next i
For i = 1 To H
OutPut(3 + i, 4).NumberFormat = "0.00"
Next i
For i = 1 To H
OutPut(3 + i, 5).NumberFormat = "0.00"
Next i
For j = 1 To 5
For i = 1 To 4 + H + 6
OutPut(i, j).HorizontalAlignment = xlCenter
OutPut(i, j).Font.Size = 11
Next i
Next j
Range(OutPut(1, 1), OutPut(1, 5)).Merge
'Bordes Dobles
Range(OutPut(1, 1), OutPut(1, 5)).Select
With Selection.Borders(xlEdgeBottom)
.LineStyle = xlDouble
.Weight = xlThick
.ColorIndex = xlAutomatic
End With
With Selection.Borders(xlEdgeTop)
.LineStyle = xlDouble
.Weight = xlThick
.ColorIndex = xlAutomatic
End With
Range(OutPut(2, 3), OutPut(2, 3)).Select
With Selection.Borders(xlEdgeBottom)
.LineStyle = xlContinuous
.Weight = xlThin
.ColorIndex = xlAutomatic
End With
Range(OutPut(3, 1), OutPut(3, 5)).Select
With Selection.Borders(xlEdgeBottom)
.LineStyle = xlContinuous
.Weight = xlThin
.ColorIndex = xlAutomatic
End With
Range(OutPut(3 + H, 1), OutPut(3 + H, 5)).Select
With Selection.Borders(xlEdgeBottom)
.LineStyle = xlContinuous
.Weight = xlThin
.ColorIndex = xlAutomatic
End With
Range(OutPut(4 + H, 1), OutPut(4 + H, 5)).Select
With Selection.Borders(xlEdgeBottom)
213
.LineStyle = xlDouble
.Weight = xlThick
.ColorIndex = xlAutomatic
End With
Range(OutPut(4 + H + 6, 1), OutPut(4 + H + 6,
5)).Select
With Selection.Borders(xlEdgeBottom)
.LineStyle = xlDouble
.Weight = xlThick
.ColorIndex = xlAutomatic
End With
OutPut(4 + H, 3).Select
'Goalseek
If automatic = True Then
Application.DisplayAlerts = False
OutPut(4 + H, 3).goalseek Goal:=0,
ChangingCell:=OutPut(3, 3)
Application.DisplayAlerts = True
End If
For i = 1 To (H + 3)
OutPut(3 + i, 3).NumberFormat = "0.000000"
Next i
Application.ScreenUpdating = True
End
10.8.3 Código GAMS para Plan de Producción
$ONTEXT PROBLEMA DE OPTIMIZACIÓN ENTERA PARA LA PLANEACIÓN DE LA PRODUCCIÓN Realizado Por: Juan Camilo Díaz H Fecha: 02/2014 $OFFTEXT $Title Plan de producción para ALIANZAS Y/O INDUSTRIAS ALTA PUREZA S.A **______________________Declaración de escalares SCALAR CMA capacidad maxima de almacenamiento en inventario /318.387/ *CMA en metros cubicos CW costo de tener un trabajador /1031500/ *CW en $/Trabajador CHE costo de una hora extra ordinaria /4939.57/ *CHE en $/horaextra Ley 50/1990 Art.24 CH costo de contratar un trabajador /74800/ *CH en $/trabajador CF costo de despedir un trabajador /59100/ *CF en $/trabajador PorOcio porcentaje de tiempo ocioso /0.09/ PorMant porcentaje de tiempo en mantenimiento /0.08/ Turnos numero de turnos en un dia /1/ HorTurnNorm numero de horas por turno en tiempo normal /8/ HorTurnExtra numero de horas por turno en tiempo extra /4/ HorDescTN numero de horas de descanso en tiempo normal /1.5/
HorDescTE numero de horas de descanso en tiempo extra /0/ ; **____________________Declaración de conjuntos SETS t periodo de tiempo /Febrero,Marzo,Abril,Mayo,Junio,Julio,Agosto/ i tipo de producto /R250,R500,R1000,R1500,R3000/ j etapa del proceso /FabEnvase,Mezclado,Resto/; **____________________Declaración de variables VARIABLES yn(i,t) cantidad producida de producto i en el periodo t en tiempo normal ye(i,t) cantidad producida de producto i en el periodo t en tiempo extra s(i,t) cantidad en inventario del producto i al final del periodo t ct costo total ep(i,t) error positivo en(i,t) error negativo nhe(j,t) numero de horas extra necesarias en la estacion j en el periodo t wn(j,t) nivel de fuerza de trabajo en el periodo t en la etapa j en T normal we(j,t) nivel de fuerza de trabajo en el periodo t en la etapa j en T extra h(j,t) cambio en la fuerza de trabajo por contratacion en el periodo t f(j,t) cambio en la fuerza de trabajo por despido en el periodo t wtot(t) numero de trabajadores totales en la empresa en el tiempo t prop(i,t) proporcion producido sobre demanda del producto i en el tiempo t CapDispN(t) capacidad disponible en tiempo normal en el periodo t CapDispE(t) capacidad disponible en tiempo extra en el periodo t ; POSITIVE VARIABLES yn,ye,s,ep,en,nhe,wn,we,h,f; POSITIVE VARIABLES prop,wtot,CapDispN,CapDispE; FREE VARIABLE ct;
214
PARAMETER numhN(t) numero de hombres por hora hombre en el periodo t en tiempo normal *en trabajador/HoraHombre para 8 horas de trabajo numhE(t) numero de hombres por hora hombre en el periodo t en tiempo extra *en trabajador/HoraHombre para 4 horas de trabajo en TE Total 12 horas ; **____________________Declaración de parámetros (Vectores) CAMIAR EL DIRECTORIO!!!!! C:/ Parameter Cu(i); $gdxin C:\Users\user\Documents\GDXGAMSTESIS\CostoUnitarioNormal.gdx $load Cu display Cu; Parameter Cr(i); $gdxin C:\Users\user\Documents\GDXGAMSTESIS\CostoRuptura.gdx $load Cr display Cr; Parameter Ca(i); $gdxin C:\Users\user\Documents\GDXGAMSTESIS\CostoAlmacenamiento.gdx $load Ca display Ca; Parameter Pr(i); $gdxin C:\Users\user\Documents\GDXGAMSTESIS\Precio.gdx $load Pr display Pr; Parameter Ii(i); $gdxin C:\Users\user\Documents\GDXGAMSTESIS\InventarioInicial.gdx $load Ii
display Ii; Parameter Wi(j); $gdxin C:\Users\user\Documents\GDXGAMSTESIS\TrabajadoresInicial.gdx $load Wi display Wi; Parameter CapMaqN(t); $gdxin C:\Users\user\Documents\GDXGAMSTESIS\CapacidadMaqN.gdx $load CapMaqN display CapMaqN; Parameter CapMaqE(t); $gdxin C:\Users\user\Documents\GDXGAMSTESIS\CapacidadMaqE.gdx $load CapMaqE display CapMaqE; Parameter aN(i); $gdxin C:\Users\user\Documents\GDXGAMSTESIS\HoraNormal.gdx $load aN display aN; Parameter aE(i); $gdxin C:\Users\user\Documents\GDXGAMSTESIS\HoraExtra.gdx $load aE display aE; Parameter vol(i); $gdxin C:\Users\user\Documents\GDXGAMSTESIS\Volumen.gdx $load vol display vol; Parameter SS(i); $gdxin C:\Users\user\Documents\GDXGAMSTESIS\ss.gdx $load SS
display SS; Parameter DiasHabiles(t); $gdxin C:\Users\user\Documents\GDXGAMSTESIS\DiasHabiles.gdx $load DiasHabiles display DiasHabiles; loop (t$(ord(t)>1), numhN(t)=(1/(HorTurnNorm*DiasHabiles(t)))); loop (t$(ord(t)>1), numhE(t)=(1/(HorTurnExtra*DiasHabiles(t)))); Parameter TeN(j,i); $gdxin C:\Users\user\Documents\GDXGAMSTESIS\TENormal.gdx $load TeN display TeN; Parameter TeE(j,i) $gdxin C:\Users\user\Documents\GDXGAMSTESIS\TEExtra.gdx $load TeE display TeE; Parameter dem(i,t) $gdxin C:\Users\user\Documents\GDXGAMSTESIS\Demanda.gdx $load dem display dem; **______________________Declaración de ecuaciones EQUATIONS Target funcion objetivo ResError(i,t) error de produccion (1) SatDem(i,t) satisfaccion de la demanda (2) CapDisN(t) capacidad disponible T normal (3) CapDisE(t) capacidad disponible T extra (4)
215
CapAlm(t) capacidad de almacenamiento (5) FuerzaTrabajoN(j,t) fuerza de trabajo T normal (6) FuerzaTrabajoE(j,t) fuerza de trabajo T extra (7) HorasExtra(j,t) horas extra (8) CambioFuerza(j,t) cambio en la fuerza de trabajo (9) DetProporcion(i,t) proporcion producido sobre demanda (10) DetTrabTot(t) trabajadores totales en la empresa (11) DetCapDisN(t) calculo capacidad disponible en T normal (12) DetCapDisE(t) calculo capacidad disponible en T extra (13) ResCapMaqN(t) limitar capacidad disponible T normal (14) ResCapMaqE(t) limitar capacidad disponible T extra (15) Safty(i,t) inventario de seguridad (16) ; * Funcion Objetivo con fuerza de trabajo PONER QUE t VAYA DESDE 2 HASTA 7 // $ord(t)>1 Target.. ct=E=(sum((i,t),(Cu(i)*(yn(i,t)+ye(i,t))+(Ca(i)*s(i,t)))))+(sum((i,t),(Ca(i)*ep(i,t))+(Cr(i)*en(i,t))))+sum((j,t),(CHE*nhe(j,t)+CW*wn(j,t)+CH*h(j,t)+CF*f(j,t))); *(1) Restricción de error de producción ResError(i,t)$(ord(t)>1).. ep(i,t)-en(i,t)=E=yn(i,t)+ye(i,t)-dem(i,t); *(2) Restricción de satisfacción de la demanda SatDem(i,t)$(ord(t)>1).. s(i,t-1)+yn(i,t)+ye(i,t)-dem(i,t)=E=s(i,t); *(3) Restricción de capacidad disponible de producción en tiempo normal CapDisN(t)$(ord(t)>1).. sum(i,(aN(i)*yn(i,t)))=L=CapDispN(t);
*(4) Restricción de capacidad disponible de producción en tiempo extra CapDisE(t)$(ord(t)>1).. sum(i,(aE(i)*ye(i,t)))=L=CapDispE(t); *(5) Restricción de almacenamiento disponible CapAlm(t)$(ord(t)>1).. sum(i,s(i,t)*vol(i))=L=CMA; *(6) Fuerza de trabajo T normal FuerzaTrabajoN(j,t)$(ord(t)>1).. sum(i,(numhN(t)*TeN(j,i)*yn(i,t)))=L=wn(j,t); *(7) Fuerza de trabajo T extra FuerzaTrabajoE(j,t)$(ord(t)>1).. sum(i,(numhE(t)*TeE(j,i)*ye(i,t)))=L=we(j,t); *(8) Restricción de horas extra HorasExtra(j,t)$(ord(t)>1).. sum(i,(TeE(j,i)*ye(i,t)))=E=nhe(j,t); *(9) Restricción de cambio en la fuerza de trabajo CambioFuerza(j,t)$(ord(t)>1).. wn(j,t-1)+h(j,t)-f(j,t)=E=wn(j,t); *(10) PROPORCION PRODUCIDO =1 PRODUCE LO MISMO QUE DEMANDA (SOLUCION TRIVIAL), >1 PRODUCE MAS DE LO QUE DEMANDA, <1 PRODUCE MENOS DE LO QUE DEMANDA DetProporcion(i,t)$(ord(t)>1).. (yn(i,t)+ye(i,t))/dem(i,t)=E=prop(i,t); *(11) TRABAJADORES TOTALES EN LA EMPRESA DetTrabTot(t)$(ord(t)>1).. sum(j,wn(j,t))=E=wtot(t); *(12) Determinacion de capacidad en tiempo normal DetCapDisN(t)$(ord(t)>1).. (1-PorOcio-PorMant)*wtot(t)*(Turnos*DiasHabiles(t)*(HorTurnNorm-HorDescTN))=E=CapDispN(t); *(13) Determinacion de capacidad en tiempo normal DetCapDisE(t)$(ord(t)>1).. (1-PorOcio-PorMant)*wtot(t)*(Turnos*DiasHabiles(t)*(HorTurnExtra-HorDescTE))=E=CapDispE(t); *LIMITAR LAS CAPACIDADES SEGUN EL MAXIMO QUE ME DEJA LAS MAQUINAS *(14) Restriccion Capacidad Maquina Normal
ResCapMaqN(t)$(ord(t)>1).. CapDispN(t)=L=CapMaqN(t); *(15) Restriccion Capacidad Maquina Extra ResCapMaqE(t)$(ord(t)>1).. CapDispE(t)=L=CapMaqE(t); *(16) Restricción Inventario de seguridad Safty(i,t)$(ord(t)>1).. s(i,t)=G=SS(i); *Condiciones iniciales *Inventario inicial en Febrero s.fx(i,'Febrero') = Ii(i); *Fuerza de trabajo en Febrero wn.fx(j,'Febrero') = Wi(j); *wn.fx(j,t) = Wi(j); **_____________________OPCIONES FINALES DEL MODELO MODEL PlanProduccion /ALL/; *---------------------------------------------------------------- * Pasos Para el análisis de sensibilidad * * (1) Crear un archivo llamado "cplex.opt" con estas dos lineas: * * objrng * rhsrng * * (2) Adicionar las siguientes dos linead en el programa GAMS: option lp=cplex; PlanProduccion.optfile=1; option limrow = 3000; option limcol = 5000; option iterlim = 500000; PlanProduccion.reslim = 150; option sysout = on; option mip=cplex; *y.fx(i,t) = dem(i,t); NLP MIP MAXIMIZING SOLVE PlanProduccion USING MIP MINIMIZING ct;
216
******************************************************************************** $if exist C:\Users\user\Documents\GDXGAMSTESIS\solution.txt $call del C:\Users\user\Documents\GDXGAMSTESIS\solution.txt file fle /C:\Users\user\Documents\GDXGAMSTESIS\solution.txt/; putclose fle, " PLAN DE PRODUCCIÓN"/ " ALIANZAS Y/O INDUSTRIAS ALTA PUREZA S.A"/ " Realizado por: Juan Camilo Díaz H"/ " -----------"/ " Método: MIP"/ " Ecuaciones: ",PlanProduccion.numequ:0:0/ " Variables: ",PlanProduccion.numvar:0:0/ " Estado del Modelo: ",PlanProduccion.tmodstat/ " Estado del Solver: ",PlanProduccion.tsolstat/ " # Iteraciones: ",PlanProduccion.iterusd:0:0/ " Tiempo CPU: ",PlanProduccion.resusd:0/; $if exist C:\Users\user\Documents\GDXGAMSTESIS\solution.gdx $call del C:\Users\user\Documents\GDXGAMSTESIS\solution.gdx execute_unload "C:\Users\user\Documents\GDXGAMSTESIS\solution.gdx",ct,yn.l,ye.l,s.l,nhe.l,wtot.l,h.l,f.l; *$ONTEXT DISPLAY ct.l,yn.l,ye.l,s.l; DISPLAY ep.l,en.l; DISPLAY wn.l,we.l,h.l,f.l,nhe.l; *Ver Variables Creadas DISPLAY prop.l,wtot.l,CapDispN.l,CapDispE.l; OPTIONS decimals=8; DISPLAY numhN,numhE; *$OFFTEXT
217
10.9 Resultados
10.9.1 Resultados de las transformaciones estabilizadoras de varianza.
SERIE R250
Transformación Estabilizadora de Varianza T(R250)
Potencia(λ)
Año {Grupo} -1 -0.5 0 0.5 1
2011 {1} 0.000154 0.009096 0.5381 31.837 1883.485
2012 {2} 0.000037 0.004935 0.6568 87.403 11631.780
2013 {3} 0.000010 0.002060 0.4357 92.134 19484.912
Coef. Variación 1.143968 0.659548 0.2036 0.476 0.802
M(λ) 0.000067 0.005364 0.543519 70.458010 11000.058759
det(λ) 0.000076 0.003538 0.110655 33.530558 8817.701750
Transformación Estabilizadora de Varianza T(R250) - Búsqueda Automática
Potencia(λ)
Año {Grupo} 0.044344042 Sh Zh
2011 {1} 0.772774 1883.48 3500.00
2012 {2} 1.013433 11631.78 17710.67
2013 {3} 0.700430 19484.91 44725.83
Coef. Variación 0.197702
M(λ) 0.828879
det(λ) 0.163871
218
SERIE R500
Transformación Estabilizadora de Varianza T(R500)
Potencia(λ)
Año {Grupo} -1 -0.5 0 0.5 1
2010 {1} 0.000020 0.002513 0.3161 39.758 5001.289
2011 {2} 0.000018 0.002400 0.3218 43.142 5783.568
2012 {3} 0.000014 0.002787 0.5422 105.468 20515.249
2013 {4} 0.000007 0.001628 0.3913 94.056 22606.347
Coef. Variación 0.393550 0.212975 0.267999 0.481765 0.695962
M(λ) 0.000015 0.002332 0.392851 70.605967 13476.613266
det(λ) 0.000006 0.000497 0.105284 34.015501 9379.205704
Transformación Estabilizadora de Varianza T(R500) - Búsqueda Automática
Potencia(λ)
Año {Grupo} -0.341328168 Sh Zh
2010 {1} 0.011653 5001.29 15824.00
2011 {2} 0.011360 5783.57 17972.00
2012 {3} 0.014846 20515.25 37836.50
2013 {4} 0.009274 22606.35 57768.00
Coef. Variación 0.195212
M(λ) 0.011783
det(λ) 0.002300
219
SERIE R1500
Transformación Estabilizadora de Varianza T(R1500)
Potencia(λ)
Año {Grupo} -1 -0.5 0 0.5 1
2010 {1} 0.000183 0.007078 0.2734 10.561 407.914
2011 {2} 0.000141 0.006821 0.3289 15.865 765.128
2012 {3} 0.000059 0.002934 0.1455 7.215 357.792
2013 {4} 0.000143 0.007170 0.3605 18.127 911.436
Coef. Variación 0.395559 0.341571 0.342228 0.383480 0.442893
M(λ) 0.000132 0.006001 0.277091 12.941813 610.567627
det(λ) 0.000052 0.002050 0.094828 4.962930 270.416249
Transformación Estabilizadora de Varianza T(R1500) - Búsqueda Automática
Potencia(λ)
Año {Grupo} -0.262914207 Sh Zh
2010 {1} 0.040029 407.91 1492.00
2011 {2} 0.042854 765.13 2326.00
2012 {3} 0.018681 357.79 2459.00
2013 {4} 0.045949 911.44 2528.17
Coef. Variación 0.335434
M(λ) 0.036878
det(λ) 0.012370
220
SERIE R3000
Transformación Estabilizadora de Varianza T(R3000)
Potencia(λ)
Año {Grupo} -1 -0.5 0 0.5 1
2010 {1} 0.000129 0.005527 0.2365 10.122 433.196
2011 {2} 0.000132 0.006488 0.3187 15.655 769.013
2012 {3} 0.000067 0.003745 0.2109 11.874 668.604
2013 {4} 0.000086 0.005138 0.3059 18.207 1083.822
Coef. Variación 0.312411 0.217761 0.195758 0.261445 0.365171
M(λ) 0.000104 0.005225 0.267991 13.964693 738.658757
det(λ) 0.000032 0.001138 0.052461 3.651000 269.736887
Transformación Estabilizadora de Varianza T(R3000) - Búsqueda Automática
Potencia(λ)
Año {Grupo} -0.138346093 Sh Zh
2010 {1} 0.083653 433.20 1831.50
2011 {2} 0.108496 769.01 2413.00
2012 {3} 0.069131 668.60 3170.50
2013 {4} 0.098736 1083.82 3543.50
Coef. Variación 0.191821
M(λ) 0.090004
det(λ) 0.017265
10.9.2 Resultados Estabilización Varianza Método Anderson
Estb. Nivel LR250 Estb. Nivel TR500 Estb. Nivel LR500
Diferencia Desviación Diferencia Desviación Diferencia Desviación
0 1.41126998 0 3.45478E-06 0 0.43618976
1 0.61093703 1 2.88923E-06 1 0.24317616
2 2.01351531 2 6.46151E-06 2 0.57910125
3 7.33771465 3 1.72104E-05 3 1.55907115
Mínimo 0.61093703 Mínimo 2.88923E-06 Mínimo 0.24317616
Estb. Nivel LR1500 Estb. Nivel LR3000
Diferencia Desviación Diferencia Desviación
0 0.115090968 0 0.13264587
1 0.117223558 1 0.121085
2 0.29075827 2 0.31107009
3 0.843288884 3 0.95741876
Mínimo 0.115090968 Mínimo 0.121085
221
10.9.3 Resultados identificación series restantes
10.9.3.1 Serie DLR250
1 2 3 4 5 6 7 8 9 10
Autocorrelación -0.535 0.153 -0.047 0.095 -0.162 0.283 -0.336 0.192 -0.089 -0.008
PACF -0.535 -0.186 -0.072 0.090 -0.089 0.216 -0.130 -0.069 -0.053 -0.119
Ljung-Box 10.313 11.184 11.269 11.630 12.714 16.130 21.143 22.849 23.232 23.235
(P-Value) 0.001 0.004 0.010 0.020 0.026 0.013 0.004 0.004 0.006 0.010
11 12 13 14 15 16 17 18 19 20
Autocorrelación 0.091 -0.007 -0.054 -0.012 -0.009 -0.084 0.008 0.015 -0.004 0.091
PACF 0.137 0.068 0.098 -0.123 -0.132 -0.220 -0.288 -0.037 0.047 0.137
Ljung-Box 23.670 23.673 23.841 23.850 23.855 24.339 24.344 24.361 24.362 23.670
(P-Value) 0.014 0.023 0.033 0.048 0.068 0.082 0.110 0.144 0.183 0.014
21 22 23 24
Autocorrelación -0.135 0.195 -0.104 0.053
PACF -0.086 0.094 0.016 -0.043
Ljung-Box 25.970 29.642 30.785 31.104
(P-Value) 0.167 0.099 0.101 0.120
-0,8
-0,6
-0,4
-0,2
0
0,2
0,4
0,6
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
ACF DLR250
-0,8
-0,6
-0,4
-0,2
0
0,2
0,4
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
PACF DLR250
222
SCAN - Valores de Probabilidad - ARMA(p+d,q)
MA
0 1 2 3 4 5 6 7
0 <.0001 0.1635 0.4580 0.4910 0.3442 0.1343 0.1056 0.3832
AR
1 0.3366 0.8085 0.5513 0.5891 0.8843 0.3973 0.1663 0.8566
2 0.6035 0.5642 0.9751 0.9115 0.5354 0.5285 0.3089 0.9349
3 0.6583 0.7977 0.9119 0.9684 0.7108 0.9613 0.4233 0.7709
4 0.3664 0.8589 0.7396 0.6779 0.8245 0.5418 0.5875 0.4733
5 0.1600 0.5514 0.7953 0.9691 0.8117 0.7936 0.7940 0.6631
6 0.5541 0.5033 0.5737 0.4804 0.7996 0.7703 0.9175 0.8700
7 0.5683 0.8961 0.9773 0.6921 0.8945 0.7000 0.9002 0.9042
ESACF - Valores de Probabilidad - ARMA(p+d,q)
MA
0 1 2 3 4 5 6 7
0 0.0001 0.1647 0.4500 0.4836 0.3386 0.1394 0.1314 0.4158
AR
1 0.1379 0.5841 0.3691 0.7068 0.9785 0.4311 0.1178 0.9755
2 0.0106 0.4964 0.9698 0.8715 0.8885 0.7009 0.1229 0.8065
3 0.0032 0.4621 0.7964 0.9674 0.7254 0.9566 0.1234 0.9439
4 0.0220 0.0340 0.8219 0.9705 0.7244 0.8848 0.1733 0.8372
5 0.0107 0.6079 0.5714 0.9309 0.9302 0.7496 0.5919 0.4297
6 0.0377 0.1789 0.5440 0.8753 0.1349 0.1837 0.9812 0.6976
7 0.0050 0.5932 0.9613 0.2731 0.9867 0.0965 0.3283 0.6860
MINIC – Criterio de información BIC
MA
0 1 2 3 4 5 6 7
0 -0.7888 -1.0981 -1.0947 -1.0799 -1.0790 -1.1854 -1.3140 -1.3099
AR
1 -1.4581 -1.3676 -1.3093 -1.2226 -1.1650 -1.2125 -1.5645 -1.5433
2 -1.3766 -1.2835 -1.2174 -1.1289 -1.0834 -1.1544 -1.5231 -1.4634
3 -1.3377 -1.2534 -1.1595 -1.0673 -0.9924 -1.0671 -1.5039 -1.4398
4 -1.2496 -1.1642 -1.0715 -0.9777 -0.8995 -1.0078 -1.4140 -1.3674
5 -1.4008 -1.3148 -1.2232 -1.1330 -1.1893 -1.1247 -1.5039 -1.5735
6 -1.7612 -1.6825 -1.5895 -1.4988 -1.4416 -1.6047 -1.5370 -1.5267
7 -1.7204 -1.6279 -1.5441 -1.4509 -1.3859 -1.6060 -1.5262 -1.7376
223
MAPE
MA
0 1 2 3 4 5 6 7
0 55.089 69.264 74.810 74.745 73.739 68.548 71.296
AR
1 48.107 48.901 48.882 48.001 48.470 48.108 48.928 46.942
2 69.597 49.417 67.459 68.531 69.314 69.635 64.958 66.099
3 73.711 55.128 69.200 71.784 73.793 73.679 68.144 71.644
4 74.405 54.950 69.075 74.405 72.402 73.703 68.589 70.519
5 72.961 54.820 68.722 73.111 72.837 69.711 68.449 71.046
6 70.119 54.542 65.756 70.358 70.122 70.120 70.364 69.658
7 67.780 53.863 63.379 68.084 67.214 67.832 67.327 66.936
RMSE
MA
0 1 2 3 4 5 6 7
0 12189.76 15576.03 16114.63 15937.64 15420.26 16790.20 17949.78
AR
1 11551.11 11318.72 11124.58 11568.19 11524.52 11591.94 11930.67 12959.36
2 15418.68 11160.06 15903.76 15308.32 15480.62 15057.28 16474.39 18171.19
3 15908.78 12194.19 15567.08 14603.67 15953.11 15338.07 16898.32 17985.29
4 15715.52 11942.68 15412.52 15745.91 15706.45 15419.08 16837.72 18466.60
5 14920.22 11906.43 14728.67 14930.45 14829.37 13726.77 16730.56 17718.34
6 16796.47 11930.79 16349.60 16899.35 16786.30 16796.85 16937.91 18771.65
7 18319.66 12811.80 18472.27 18355.52 18578.90 18063.01 18835.71 17584.75
MAE
MA
0 1 2 3 4 5 6 7
0 8045.66 10102.57 10368.94 10408.53 10140.51 10362.32 10960.14
AR
1 7772.06 7676.78 7468.78 7868.39 7763.50 7777.19 7897.56 8010.64
2 10011.64 7520.22 9532.99 9974.38 9988.28 9940.99 10127.96 10720.39
3 10148.29 8051.18 10149.01 9493.47 10140.42 10123.64 10117.45 10943.07
4 10251.12 7900.43 9983.58 10246.67 9814.51 10114.77 10344.97 10815.90
5 9953.33 7994.43 9758.47 9976.74 9903.44 9197.06 10278.74 10602.26
6 10391.61 7850.11 10060.37 10366.71 10394.74 10392.30 10414.69 10805.58
7 10447.28 8098.46 10427.05 10431.49 10361.29 10229.52 10610.75 10135.57
El correlograma de la primera diferencia del logaritmo natural de R250 muestra el típico
comportamiento de un modelo autoregresivo de orden con un coeficiente negativo. Al
observar en la gráfica de contra (es decir, la ACF) las barras convergen a cero
geométricamente, esto permite pensar que el haber tomado la primera diferencia de
LR250 hizo que la serie fuese estacionaria. Se sabe además que es negativo puesto
que la convergencia se da en forma oscilatoria alrededor de cero. Por lo que se esperará
que al estimar el modelo en la siguiente etapa el coeficiente asociado sea negativo.
El valor de probabilidad del estadístico Q de Ljung-Box (1978) da evidencia que la serie
no es ruido blanco por lo menos hasta el rezago al 5% de significancia. Esto
224
permite entonces el poder buscar un modelo ARMA que se acople a los datos de la serie
de estudio.
Al observar los resultados de la metodología SCAN y ESCAF se encuentra un consenso
en el número de modelos que deberían ser estimados en la siguiente etapa. Dos patrones
rectangulares y triangulares inferiores derechos se forman en los mismos puntos para la
metodología SCAN y ESACF respectivamente. Estas conexiones se dan en lo modelos
AR(1) y MA(1) de la serie transformada de varianza LR500, es decir que se tendrá un
modelo más a tener en consideración para la siguiente etapa adicional al modelo tentativo
encontrado por los correlogramas.
En cuanto al mínimo criterio de información, el cual corresponde a -1.7612, tiene su
intersección en un modelo autoregresivo de orden seis AR(6). Esto parece estar arrojaron
un modelo con un orden diferente a las pruebas anteriores, pero que deberá ser ensayado
en la siguiente etapa puesto que la minimización del criterio de información Bayesiano
indica que la inclusión de ese número de parámetros en el modelo permite minimizar
dicho criterio de información dado por la poca penalidad que dan estos parámetros ( y )
a la suma de residuos cuadrados. Por lo que se tendría con este un tercer modelo
tentativo.
En cuanto a los resultados arrojados por el método propuesto ARIMAIN, se logró un
consenso de un modelo del tipo ARMA(1,2) por parte de las funciones de pérdida RMSE y
MAE. Mientras que el resultado de la matriz MAPE determinó un modelo del tipo
ARMA(1,7). En cualquiera de los dos casos se está encontrando un modelo cuyo
componente autoregresivo es de primer orden, acorde a lo presentado en la ACF, PACF,
SCAN y ESACF pero que utiliza información de los errores del rezago 2 y 7
respectivamente para mejorar las relaciones dinámicas de corto y largo plazo. Sin
embargo, como se realizó anteriormente para la serie LR1000, es necesario probar la
significancia de cada coeficiente en cada modelo y validar su diagnóstico.
Se tendrá entonces cinco modelos preliminares a ser estimados para la serie DLR250
(ver Tabla 87). Note que estos modelos pueden ser nombrados de manera diferente
dependiendo de qué serie se esté hablando. Por ejemplo, el modelo M2 puede ser
representado como ARMA(0,1) o MA(1) para la serie DLR250, o como un ARIMA(0,1,1) o
IMA(1,1) para la serie LR250. Lo mismo sucede con las pseudorepresentaciones de los
demás modelos.
Modelo Tentativo
Representaciones polinómicas
M1 ARMA(1,0)
M2 ARMA(0,1)
M3 ARMA(6,0)
M4 ARMA(1,7)
M5 ARMA(1,2)
Tabla 88 Modelos tentativos para la serie DLR250 (1:45)
225
10.9.3.2 Serie TR500
1 2 3 4 5 6 7 8 9 10
Autocorrelación 0.528 0.315 0.309 0.280 0.184 0.201 0.207 0.081 0.046 0.064
PACF 0.528 0.050 0.174 0.067 -0.029 0.097 0.041 -0.116 -0.003 0.000
Ljung-Box 11.744 16.028 20.279 23.853 25.440 27.390 29.533 29.869 29.980 30.204
(P-Value) 0.001 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.001
11 12 13 14 15 16 17 18 19 20
Autocorrelación 0.120 0.069 0.020 -0.142 -0.198 -0.155 -0.045 -0.012 -0.029 -0.086
PACF 0.104 -0.032 -0.050 -0.244 -0.091 0.004 0.137 0.069 0.014 -0.088
Ljung-Box 31.026 31.308 31.333 32.615 35.231 36.891 37.037 37.048 37.116 37.734
(P-Value) 0.001 0.002 0.003 0.003 0.002 0.002 0.003 0.005 0.008 0.010
21 22 23 24
Autocorrelación -0.062 0.000 -0.179 -0.186
PACF 0.052 0.052 -0.313 -0.075
Ljung-Box 38.076 38.076 41.289 44.985
(P-Value) 0.013 0.018 0.011 0.006
-0,8
-0,6
-0,4
-0,2
0
0,2
0,4
0,6
0,8
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
ACF TR500
-0,4
-0,2
0
0,2
0,4
0,6
0,8
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
PACF TR500
226
1 2 3 5 6 7 8 9 10
Autocorrelación 0.200 -0.190 -0.144 -0.194 -0.073 -0.025 -0.132 -0.084 0.000
PACF 0.200 -0.239 -0.055 -0.207 -0.057 -0.131 -0.230 -0.155 -0.185
Ljung-Box 1.679 3.236 4.159 6.543 6.798 6.830 7.725 8.104 8.104
(P-Value) 0.195 0.198 0.245 0.257 0.340 0.447 0.461 0.524 0.619
11 12 13 15 16 17 18 19 20
Autocorrelación 0.141 0.185 0.199 -0.139 -0.026 0.029 0.043 -0.035 -0.146
PACF -0.022 -0.004 0.080 -0.083 -0.015 0.001 0.072 -0.052 -0.128
Ljung-Box 9.241 11.279 13.725 15.319 15.366 15.428 15.567 15.665 17.466
(P-Value) 0.600 0.505 0.394 0.429 0.498 0.565 0.623 0.679 0.623
21 22 23
Autocorrelación -0.045 0.150 -0.078
PACF 0.054 0.137 -0.213
Ljung-Box 17.645 19.754 20.359
(P-Value) 0.671 0.598 0.620
-0,5
-0,4
-0,3
-0,2
-0,1
0
0,1
0,2
0,3
0,4
0,5
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
ACF TR500dt
-0,4
-0,3
-0,2
-0,1
0
0,1
0,2
0,3
0,4
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
PACF TR500dt
227
SCAN - Valores de Probabilidad - ARMA(p+d,q)
MA
0 1 2 3 4 5 6 7
0 <.0001 0.0088 0.0155 0.038 0.0855 0.0781 0.1215 0.1997
AR
1 0.5173 0.0642 0.7376 0.9807 0.6479 0.4218 0.9507 0.6067
2 0.0222 0.2976 0.9279 0.8681 0.4949 0.4424 0.5735 0.6172
3 0.5021 0.7073 0.6658 0.4262 0.7319 0.6127 0.9107 0.779
4 0.5055 0.8799 0.5541 0.7498 0.599 0.6548 0.5463 0.8206
5 0.2397 0.4749 0.4669 0.6362 0.6455 0.6644 0.7786 0.8489
6 0.9666 0.859 0.9436 0.8698 0.6325 0.9455 0.9729 0.9207
7 0.8506 0.9207 0.9404 0.7301 0.8977 0.95 0.9041 0.9469
ESACF - Valores de Probabilidad - ARMA(p+d,q)
MA
0 1 2 3 4 5 6 7
0 <.0001 0.0136 0.02 0.0463 0.103 0.095 0.1454 0.2454
AR
1 0.3765 0.0842 0.765 0.9894 0.7054 0.4701 0.9899 0.5866
2 0.0706 0.0374 0.6092 0.993 0.7101 0.2445 0.9673 0.6709
3 0.0406 0.0502 0.6304 0.6003 0.755 0.4896 0.9116 0.662
4 0.0007 0.4198 0.0631 0.4113 0.5605 0.3778 0.9685 0.5459
5 0.0036 0.4143 0.0021 0.239 0.0692 0.4789 0.8708 0.9396
6 0.8826 0.337 0.68 0.4809 0.4107 0.4992 0.9772 0.9135
7 0.2191 0.231 0.6646 0.8033 0.5774 0.7485 0.9713 0.7941
MINIC – Criterio de información BIC
MA
0 1 2 3 4 5 6 7
0 -12.550 -12.667 -12.652 -12.646 -12.615 -12.638 -12.722 -12.730
AR
1 -13.143 -13.105 -13.083 -13.031 -12.959 -12.926 -12.916 -12.844
2 -13.102 -13.054 -13.025 -12.961 -12.887 -12.860 -12.838 -12.767
3 -13.097 -13.027 -12.960 -12.885 -12.817 -12.791 -12.767 -12.692
4 -13.022 -12.960 -12.887 -12.817 -12.739 -12.715 -12.689 -12.643
5 -13.015 -12.937 -12.860 -12.806 -12.734 -12.682 -12.614 -12.570
6 -12.988 -12.917 -12.844 -12.766 -12.688 -12.611 -12.538 -12.492
7 -12.917 -12.844 -12.767 -12.689 -12.613 -12.613 -12.540 -12.492
228
MAPE
MA
0 1 2 3 4 5 6 7
0 43.2537 49.2355 48.4192 47.7568 50.3322 49.4254 47.3823
AR
1 37.5489 34.6499 32.1991 34.5747 35.4617 35.7665 35.5332 35.8245
2 44.2031 36.4368 38.0609 40.8443 41.5470 41.0365 39.9842 41.6942
3 43.6872 36.7206 40.0932 38.0882 40.0946 40.2074 39.9158 40.3224
4 45.4607 35.9505 40.6507 41.4857 40.7687 43.2837 40.3868 42.3342
5 48.2305 38.5644 42.4385 41.5717 42.1108 43.5424 42.9852 41.7565
6 46.9828 36.5308 41.0324 37.9845 40.4545 40.9368 41.6734 41.3267
7 49.9965 38.4788 43.7391 42.8301 44.4815 44.5515 45.0166 45.0092
RMSE
MA
0 1 2 3 4 5 6 7
0 20816.718 22578.408 22318.463 22184.044 22434.296 22192.219 21247.573
AR
1 17629.118 16759.822 16862.059 17108.736 17219.423 17389.974 17286.696 17331.058
2 19987.193 17507.301 18161.580 19630.901 19866.078 19755.242 19483.476 18808.585
3 18930.428 17754.947 18618.516 17570.872 18448.346 18549.151 18197.682 17855.634
4 19514.003 17741.228 19489.975 19424.421 19233.239 19025.631 18817.236 19105.550
5 19755.219 18714.952 19926.141 19507.731 19523.979 19757.423 19677.012 19218.606
6 19277.787 17984.498 18855.196 17320.976 18820.895 19488.666 19186.339 18952.088
7 19875.337 18813.380 19545.350 19724.979 20017.971 19829.428 19753.908 20650.906
MAE
MA
0 1 2 3 4 5 6 7
0 13939.831 15331.884 15054.403 14993.588 15518.765 15163.462 14331.342
AR
1 11666.603 10560.108 10618.466 10944.057 11201.823 11394.214 11275.395 11429.085
2 13047.029 11672.864 11547.650 12413.576 12759.067 12566.920 12241.082 12361.387
3 12505.855 11317.094 11878.233 11319.315 11780.677 11941.891 11701.049 11515.797
4 13070.032 11199.098 12485.637 12621.010 12431.744 12525.040 12200.996 12475.152
5 13612.903 12230.722 13193.056 12824.480 13094.073 13155.814 13156.166 12669.852
6 13098.333 11738.161 12134.084 11324.497 12263.728 12837.717 12845.294 12512.965
7 13842.662 12214.310 13156.714 12986.235 13425.270 13382.364 13412.474 13805.180
La convergencia asintótica de la ACF sugiere la posibilidad de estar bajo la presencia de
un autoregresivo del orden dictado por la caída abrupta del rezago en la PACF. Es decir
un modelo plausible que puede llegar a ajustar bien en este tipo de serie sería un
autoregresivo de orden uno AR(1).
Sin embargo, debido a que se está en la presencia de una ACF muestral y no poblacional,
las autocorrelaciones entre rezagos pueden distar del verdadero mecanismo generador
229
de datos que rige al proceso estocástico. Es decir, existe la posibilidad que el modelo no
solo sea significativo en el rezago 1, sino también en el tercer rezago y que este ayuda a
mejorar la explicación del modelo, por lo menos de dentro de muestra. Por lo que se
tendría un modelo
Para el método SCAN observe como para una significancia del 0.1 los valores resaltados
muestran el inicio de un patrón rectangular de términos no significativos. Haciendo un
análisis un tanto más detallado sobre la tabla SCAN se observa como el orden (1,0)
podría haber sido un modelo tentativo si no fuese porque no se desdibuja un patrón
rectangular en él. Sin embargo, la previa conjetura sobre el modelo
se ve validada si miramos la primera columna de la tabla, donde el primer modelo
AR(1) trae consigo un valor de probabilidad alto, y luego vuelve a serlo el modelo AR(3),
pasando por encima del modelo AR(2).
La tabla SCAN nos permite evidenciar 4 modelos tentativos adicionales:
(i) ARIMA(2,1), (ii) ARIMA(1,2), (iii) ARIMA(3,0) y (iv) ARIMA(0,6). Empero, se debe
probar la significancia estadística de cada uno de los parámetros de cada modelo, puesto
que se debe garantizar que el modelo sea parsimonioso, permitiendo estimar un orden
tentativo con la menor cantidad de parámetros posibles. Por ejemplo para el caso (iv) del
ARIMA(3,0), observando la PACF el rezago deba ser excluido del modelo pues
su presencia, muy posiblemente, no sea representativa y por tanto su inclusión violaría el
principio de parsimonia.
Ahora bien, los valores de probabilidad de la metodología ESCAF propuesta por Tsay y
Tiao (1985) la cual se construye utilizando las autocorrelaciones muéstrales extendidas
mostró que existen 3 modelos adicionales que deberían ser tenidos en cuenta para
la etapa de estimación, estos modelos son (i) ARIMA(2,2), (ii) ARIMA(6,0), (iii)
ARIMA(7,0).
Los resultados de la tabla MINIC mostraron que la combinación de que hace
mínimo el criterio de información Bayesiano se da en la intersección entre AR 1 y MA 0, lo
cual correspondería a un modelo ARMA(1,0). Este resultado es complementarte sensato
si se observa que este modelo es el que mayor acople tuvo dada la interpretación de la
ACF y PACF que se mencionó anteriormente.
El valor mínimo de la tabla MAPE se dio en la combinación (1,2) la cual hizo parte de un
modelo tentativo de la técnica ESACF y SCAN, mientras que los dos valores mínimos de
las tablas MAE y RMSE se dieron en la combinación (1,1) lo que incluiría en la etapa de
identificación otro modelo que debería ser estimado y diagnosticado.
230
Modelo Tentativo
Representaciones polinómicas
M1 ARMA(1,0)
M2 ARMA([1 3],0)
M3 ARMA(2,1)
M4 ARMA(1,2)
M5 ARMA(3,0)
M6 ARMA(0,6)
M7 ARMA(2,2)
M8 ARMA(6,0)
M9 ARMA(7,0)
M10 ARMA(1,2)
M11 ARMA(1,1)
Tabla 89 Identificación modelos tentativos serie TR500 (1:50)
231
10.9.3.3 Serie DLR1500
1 2 3 4 5 6 7 8 9 10
Autocorrelación 0.406 0.335 0.138 0.268 0.257 0.384 0.237 0.223 -0.001 0.026
PACF 0.406 0.203 -0.066 0.217 0.128 0.217 -0.012 0.017 -0.191 -0.091
Ljung-Box 6.947 11.790 12.641 15.922 19.032 26.178 28.978 31.535 31.535 31.573
(P-Value) 0.008 0.003 0.005 0.003 0.002 0.000 0.000 0.000 0.000 0.000
11 12 13 14 15 16 17 18 19 20
Autocorrelación 0.031 -0.001 0.014 -0.020 -0.149 -0.127 -0.178 -0.097 -0.102 -0.100
PACF -0.008 -0.177 0.014 -0.023 -0.130 0.022 -0.058 0.048 0.009 0.021
Ljung-Box 31.628 31.628 31.640 31.665 33.142 34.269 36.570 37.281 38.116 38.960
(P-Value) 0.001 0.002 0.003 0.004 0.004 0.005 0.004 0.005 0.006 0.007
21 22 23 24
Autocorrelación -0.129 -0.240 -0.356 -0.226
PACF 0.019 -0.176 -0.204 -0.031
Ljung-Box 40.448 45.847 58.544 64.006
(P-Value) 0.007 0.002 0.000 0.000
-0,5
-0,4
-0,3
-0,2
-0,1
0
0,1
0,2
0,3
0,4
0,5
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
ACF LR1500
-0,4
-0,3
-0,2
-0,1
0
0,1
0,2
0,3
0,4
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
PACF LR1500
232
1 2 3 4 5 6 7 8 9 10
Autocorrelación -0.341 0.020 -0.254 0.142 -0.049 0.090 -0.057 0.170 -0.224 0.032
PACF -0.341 -0.109 -0.325 -0.089 -0.095 -0.026 -0.021 0.177 -0.090 -0.072
Ljung-Box 4.784 4.802 7.609 8.508 8.620 9.001 9.159 10.616 13.242 13.297
(P-Value) 0.029 0.091 0.055 0.075 0.125 0.174 0.241 0.224 0.152 0.208
11 12 13 14 15 16 17 18 19 20
Autocorrelación 0.064 0.022 0.036 0.053 -0.120 -0.007 -0.058 0.161 -0.075 -0.061
PACF 0.115 -0.019 0.082 0.186 -0.024 -0.034 -0.020 0.059 -0.080 -0.107
Ljung-Box 13.529 13.557 13.638 13.815 14.761 14.764 15.009 16.985 17.433 17.750
(P-Value) 0.260 0.330 0.400 0.464 0.469 0.542 0.595 0.524 0.561 0.604
21 22 23 24
Autocorrelación 0.030 0.131 -0.101 -0.062
PACF -0.002 0.105 0.015 -0.115
Ljung-Box 17.830 19.450 20.494 20.916
(P-Value) 0.660 0.617 0.612 0.644
-0,5
-0,4
-0,3
-0,2
-0,1
0
0,1
0,2
0,3
0,4
0,5
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
ACF DLR1500
-0,5
-0,4
-0,3
-0,2
-0,1
0
0,1
0,2
0,3
0,4
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
PACF DLR1500
233
SCAN - Valores de Probabilidad - ARMA(p+d,q)
MA
0 1 2 3 4 5 6 7 8
0 0.003 0.7894 0.3469 0.5985 0.7426 0.898 0.3101 0.035 0.2437
AR
1 0.0801 0.5016 0.4362 0.6709 0.7432 0.3224 0.3775 0.1773 0.2682
2 0.0135 0.4037 0.5705 0.9956 0.8011 0.248 0.5746 0.7437 0.4317
3 0.1011 0.9308 0.8483 0.943 0.5424 0.4925 0.9771 0.6389 0.4996
4 0.1504 0.7962 0.3637 0.2638 0.7367 0.7307 0.6279 0.5157 0.5018
5 0.5274 0.9065 0.1071 0.7057 0.7094 0.7942 0.4042 0.4925 0.8988
6 0.0033 0.0539 0.1549 0.2149 0.2674 0.2747 0.4908 0.5428 0.5833
7 0.0212 0.2984 0.6763 0.7819 0.9746 0.7389 0.8542 0.7786 0.6619
8 0.6930 0.7721 0.7992 0.8435 0.8183 0.7942 0.8839 0.9002 0.6934
ESACF - Valores de Probabilidad - ARMA(p+d,q)
MA
0 1 2 3 4 5 6 7 8
0 0.0075 0.8148 0.4438 0.6657 0.7881 0.9196 0.4110 0.0946 0.3426
AR
1 0.0013 0.4799 0.2324 0.7804 0.2124 0.9157 0.7105 0.1902 0.2725
2 0.0005 0.0105 0.4073 0.9603 0.9759 0.4942 0.7760 0.6422 0.2874
3 0.0011 0.6975 0.8102 0.8961 0.7477 0.5595 0.9988 0.8335 0.3253
4 0.0004 0.6327 0.7077 0.6695 0.8639 0.4375 0.9064 0.6758 0.4825
5 0.0261 0.7014 0.0858 0.3506 0.7926 0.4458 0.9055 0.5352 0.3074
6 0.1286 0.8747 0.0621 0.4970 0.9560 0.2992 0.2863 0.4115 0.3100
7 0.0008 0.1660 0.5517 0.7174 0.8864 0.5002 0.6940 0.4588 0.3738
8 0.2282 0.4335 0.2084 0.8905 0.8692 0.1494 0.7195 0.8537 0.4270
MINIC – Criterio de información BIC
MA
0 1 2 3 4 5 6 7 8
0 -2.4845 -2.6203 -2.6622 -2.6125 -2.5860 -2.6288 -2.6028 -2.5572 -2.5997
AR
1 -2.4877 -2.5740 -2.5909 -2.5520 -2.5404 -2.5871 -2.5476 -2.4829 -2.5328
2 -2.5736 -2.5388 -2.5117 -2.5503 -2.5807 -2.6197 -2.5609 -2.5137 -2.5367
3 -2.5631 -2.5003 -2.4379 -2.4996 -2.5463 -2.5404 -2.4815 -2.4347 -2.4637
4 -2.7443 -2.6992 -2.6199 -2.5787 -2.5289 -2.4711 -2.4180 -2.3758 -2.4371
5 -2.7004 -2.6478 -2.5689 -2.5414 -2.4696 -2.3918 -2.4184 -2.3467 -2.4357
6 -2.6772 -2.6419 -2.5806 -2.5062 -2.4306 -2.3615 -2.3455 -2.2677 -2.3613
7 -2.6799 -2.6834 2.6598 -2.5915 -2.5387 -2.4792 -2.4413 -2.3974 -2.3305
8 -2.7913 -2.7119 -2.6450 -2.5695 -2.4977 -2.4459 -2.3948 -2.3341 -2.2561
234
MAPE
MA
0 1 2 3 4 5 6 7 8
0 22.3510 27.3108 27.1637 27.4174 27.1518 27.2665 27.3366 25.9047
AR
1 24.5125 22.4911 20.1476 24.7904 24.5260 24.0422 24.5855 24.4142 24.1443
2 27.4390 22.4504 22.4791 27.4220 27.5872 27.3147 27.4499 27.4425 25.9624
3 27.3751 22.8880 28.0561 23.1516 27.4635 28.1628 28.3497 27.3973 26.4120
4 27.4088 22.3517 27.4791 28.2057 23.2468 27.3618 27.4141 27.4806 26.0187
5 27.0744 22.7733 27.0748 27.8212 27.5909 22.4298 27.0623 27.2723 26.0791
6 27.4807 22.1513 27.4228 27.9105 27.5420 27.3244 23.2807 28.1229 26.0142
7 27.6859 22.4665 27.7932 28.5355 27.6679 27.6264 27.5347 24.2554 27.0067
8 24.6528 21.8742 24.6260 22.8612 24.6390 23.9983 24.6672 24.5211 23.0697
RMSE
MA
0 1 2 3 4 5 6 7 8
0 693.715 871.652 872.867 875.030 868.332 872.388 868.474 799.576
AR
1 774.605 695.543 651.930 762.826 773.966 761.907 772.587 772.379 733.077
2 870.644 687.969 775.787 867.675 872.310 867.123 872.432 862.780 796.156
3 883.073 691.280 912.445 829.170 885.208 853.642 837.025 873.511 769.218
4 874.478 693.715 872.879 851.935 811.478 839.342 873.530 868.409 796.983
5 864.348 704.974 863.878 835.109 856.034 781.483 865.114 861.957 776.641
6 865.869 696.492 866.124 849.474 868.135 863.722 804.985 851.213 797.533
7 881.274 698.841 865.521 866.137 881.744 874.722 867.798 799.905 824.477
8 744.707 657.517 733.804 661.900 744.419 708.602 744.767 734.661 723.293
MAE
MA
0 1 2 3 4 5 6 7 8
0 501.981 608.811 609.674 614.360 601.733 608.385 612.767 574.015
AR
1 553.376 499.930 462.351 557.078 553.389 536.168 554.138 551.272 544.740
2 610.445 503.370 524.520 614.662 615.869 604.842 611.067 611.524 572.274
3 615.722 517.403 638.911 550.642 617.387 620.281 628.874 614.905 576.730
4 619.371 502.007 619.827 623.057 549.856 614.858 619.120 620.726 580.107
5 597.985 515.261 598.045 610.155 605.340 530.201 597.748 606.697 563.320
6 609.779 509.315 608.935 617.269 614.030 604.704 554.727 622.601 575.558
7 627.985 508.443 626.287 640.087 627.549 621.930 624.263 579.140 604.765
8 564.173 495.222 558.353 518.949 563.725 541.019 564.611 564.844 538.749
La serie de la primera diferencia del logaritmo natural de la referencia 1500 mostró un
correlograma a primera vista poco significativo. Sin embargo, el estadístico Q de Ljung-
Box (1978) da indicios de estar parado en un proceso donde existe autocorrelación serial
lineal para los 4 primeros rezagos y muy poca para los rezagos más lejanos, por lo menos
a un nivel de significancia del 10%. Es decir, hay muy poca autocorrelación lineal para
grupos de rezagos muy distantes.
235
Sin embargo, sí hay que dar un indicio de cuál podría ser el modelo ARMA que podría
llegar a derivarse de la interpretación de las funciones ACF y PACF, habría entonces que
inclinarse por un modelo de media móvil de orden uno es decir un MA(1) para la serie
DLR1500, Esto debido al hecho que la autocorrelación tiende a caer rápidamente, pero no
de manera abrupta, en la función de autocorrelación parcial mientras que si lo hace
después del primer rezago en la función PACF. Se podría además pensar en incluir el
octavo rezago de media móvil en la ecuación intentando modelar lo más posible las
dinámicas de relaciones más lejanas entre rezagos, sin embargo es necesario la
verificación de la significancia de este en la etapa de estimación. Es decir, se tendría un
segundo modelo ARMA(0,[1 8]).
Ahora bien, el método SCAN a una significancia del 10% permite encontrar un patrón
rectangular en cuatro nuevos modelos que deben ser probados en la etapa de estimación.
Estos modelos fueron ARMA(1,2), ARMA(7,1), ARMA(8,0) y ARMA(0,8). Observe que el
modelo preliminar ARMA(0,[1 8]) podría ser validado si observamos más detalladamente
los resultados de la metodología SCAN (y el método SCAN), la primera fila presentaría el
inicio de un patrón rectangular derecho al 5% de significancia en el rezago MA 1
determinado por el comienzo del elemento no significativo, de no ser por la probabilidad
menor a 5% que hay en el rezago MA 7 de esa mima fila y que permite dibujar un patrón
para el rezago 8. Esto da evidencias que un modelo como ARMA(0,[1 8]) podría llegar a
acoplarse bien a este tipo de estructuras ya que muy posiblemente no todos los rezagos
de un modelo ARMA(0,8) lleguen a acoplarse bien al mecanismo generador de datos que
rige a este proceso estocástico en particular.
La metodología ESACF siguiere 3 modelos adicionales a los presentados hasta el
momento, estos son ARMA(1,1), ARMA(3,1) y ARMA(6,3). Sin embargo, se cree que no
todos logren ser modelos bien comportados estadísticamente puesto que la ACF y PACF
mostraron rezagos poco significativos para componentes autoregresivos lejanos.
Para este caso específico se consiguió un consenso entre las tres matrices MAPE, MAE y
RMSE del método ARIMAIN. Fue el modelo ARMA(1,2) el cual presentó la menor función
de pérdida asociada a los errores de pronóstico. Por lo que se incluiría como un modelo a
considerar dentro de los vistos anteriormente puesto que su representación polinómica
difiere del modelo arrojado por SCAN. Para este caso particular es necesario probar la
significancia del coeficiente el cual determinará si estamos parados en un modelo del
tipo o uno del tipo
. Todo esto bajo la
suposición que el coeficiente es significativamente diferente de cero.
En general se tiene que, dado el comportamiento de las funciones ACF y PACF, los
métodos SCAN, ESACF y MINIC y la metodología propuesta ARIMAIN existen diez
modelos preliminares a ser estimados de manera tentativa. Estos modelos se presentan a
continuación.
236
Modelo Tentativo
Representaciones polinómicas
M1 ARMA(0,1)
M2 ARMA(0,[1 8])
M3 ARMA(1,2)
M4 ARMA(7,1)
M5 ARMA(8,0)
M6 ARMA(0,8)
M7 ARMA(1,1)
M8 ARMA(3,1)
M9 ARMA(6,3)
M10 ARMA(1,2)
Tabla 90 Modelos tentativos para la serie DLR1500 (1:50)
237
10.9.3.4 Serie LR3000
1 2 3 4 5 6 7 8 9 10
Autocorrelación 0.414 0.283 0.359 0.405 0.314 0.295 0.347 0.269 0.141 0.154
PACF 0.414 0.135 0.248 0.226 0.068 0.080 0.122 -0.017 -0.128 -0.053
Ljung-Box 7.201 10.660 16.378 23.854 28.486 32.712 38.729 42.469 43.524 44.837
(P-Value) 0.007 0.005 0.001 0.000 0.000 0.000 0.000 0.000 0.000 0.000
11 12 13 14 15 16 17 18 19 20
Autocorrelación 0.117 -0.032 0.062 -0.036 -0.035 -0.042 -0.081 -0.209 -0.152 -0.058
PACF -0.118 -0.233 0.040 -0.170 0.006 0.053 -0.017 -0.132 0.070 0.113
Ljung-Box 45.620 45.681 45.921 46.002 46.085 46.205 46.685 50.018 51.872 52.151
(P-Value) 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000 0.000
21 22 23 24
Autocorrelación -0.146 -0.239 -0.288 -0.145
PACF -0.041 -0.045 -0.208 0.030
Ljung-Box 54.032 59.418 67.700 69.952
(P-Value) 0.000 0.000 0.000 0.000
-0,8
-0,6
-0,4
-0,2
0
0,2
0,4
0,6
0,8
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
ACF LR3000
-0,4
-0,3
-0,2
-0,1
0
0,1
0,2
0,3
0,4
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
PACF LR3000
238
1 2 3 4 5 6 7 8 9 10
Autocorrelación -0.060 -0.262 -0.079 0.061 -0.070 -0.072 0.062 0.050 -0.065 0.033
PACF -0.060 -0.266 -0.123 -0.029 -0.132 -0.105 -0.009 -0.013 -0.070 0.034
Ljung-Box 0.150 3.107 3.381 3.551 3.781 4.032 4.221 4.353 4.581 4.641
(P-Value) 0.699 0.212 0.337 0.470 0.581 0.672 0.754 0.824 0.869 0.914
11 12 13 14 15 16 17 18 19 20
Autocorrelación 0.031 -0.168 0.046 -0.047 -0.073 0.066 0.092 -0.162 -0.078 0.161
PACF -0.004 -0.181 0.037 -0.160 -0.150 0.004 -0.022 -0.237 -0.117 0.019
Ljung-Box 4.695 6.370 6.503 6.646 7.004 7.305 7.917 9.924 10.407 12.587
(P-Value) 0.945 0.896 0.926 0.948 0.958 0.967 0.968 0.934 0.942 0.894
21 22 23 24
Autocorrelación 0.098 -0.027 -0.157 0.068
PACF -0.041 0.046 -0.171 -0.074
Ljung-Box 13.434 13.500 15.977 16.467
(P-Value) 0.893 0.918 0.856 0.870
-0,5
-0,4
-0,3
-0,2
-0,1
0
0,1
0,2
0,3
0,4
0,5
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
ACF LR3000dt
-0,4
-0,3
-0,2
-0,1
0
0,1
0,2
0,3
0,4
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
PACF LR3000dt
239
SCAN - Valores de Probabilidad - ARMA(p+d,q)
MA
0 1 2 3 4 5 6 7
0 0.0041 0.0691 0.0082 0.001 0.0524 0.1166 0.0557 0.0245
AR
1 0.2189 0.2683 0.7658 0.1260 0.7988 0.4909 0.7580 0.1881
2 0.0337 0.5619 0.1622 0.2472 0.3887 0.8136 0.4004 0.2322
3 0.0025 0.1646 0.3835 0.7136 0.6426 0.4909 0.4373 0.5026
4 0.4106 0.8615 0.6652 0.5988 0.7483 0.5300 0.5455 0.6637
5 0.5729 0.7776 0.8224 0.7491 0.5803 0.9624 0.9985 0.7422
6 0.3931 0.5710 0.7495 0.9000 0.8085 0.9989 0.9656 0.7596
7 0.2243 0.5003 0.6731 0.8286 0.8732 0.9025 0.9285 0.8025
ESACF - Valores de Probabilidad - ARMA(p+d,q)
MA
0 1 2 3 4 5 6 7
0 0.0096 0.1049 0.0341 0.0082 0.0984 0.1854 0.1226 0.0971
AR
1 0.008 0.592 0.857 0.1047 0.7642 0.7251 0.8442 0.1475
2 0.0054 0.039 0.8316 0.089 0.7906 0.7317 0.7961 0.2614
3 0.0004 0.3219 0.2107 0.6028 0.649 0.8759 0.4143 0.1936
4 0.0597 0.6421 0.4019 0.0917 0.6222 0.6626 0.5556 0.1883
5 0.0012 0.6665 0.8648 0.537 0.35 0.8839 0.972 0.2512
6 0.0015 0.5138 0.7807 0.4659 0.4044 0.8752 0.9793 0.3221
7 0.0023 0.0872 0.307 0.4472 0.5707 0.6719 0.6878 0.7208
MINIC – Criterio de información BIC
MA
0 1 2 3 4 5 6 7
0 -2.4715 -2.4016 -2.3458 -2.2699 -2.3508 -2.5097 -2.4950 -2.4660
AR
1 -2.4719 -2.6621 -2.6631 -2.5855 -2.6138 -2.5691 -2.5136 -2.4796
2 -2.4165 -2.6486 -2.5851 -2.5074 -2.5365 -2.5039 -2.4424 -2.4026
3 -2.4335 -2.6042 -2.5275 -2.5343 -2.5339 -2.5665 -2.5258 -2.5357
4 -2.6410 -2.6572 -2.5823 -2.5229 -2.4564 -2.5126 -2.4996 -2.4966
5 -2.7146 -2.6376 -2.5604 -2.5043 -2.4457 -2.4585 -2.4267 -2.4433
6 -2.6684 -2.5904 -2.5198 -2.4590 -2.3979 -2.4442 -2.3662 -2.3698
7 -2.6177 -2.5396 -2.4669 -2.4703 -2.4054 -2.4721 -2.4044 -2.3591
240
MAPE
MA
0 1 2 3 4 5 6 7
0 27.7313 29.1117 27.3003 27.1389 28.5687 28.3797 26.1179
AR
1 26.3233 22.0758 26.3139 26.1440 24.3367 26.2843 25.9874 25.5106
2 27.9523 26.6990 22.0689 26.2093 26.1674 28.0552 27.8442 25.6709
3 25.4770 25.1911 25.4517 24.3743 24.3550 25.3552 25.2568 25.0740
4 22.6936 22.6624 22.6674 22.7103 21.6537 22.5658 22.6601 22.1445
5 26.8562 26.6604 26.5552 26.3046 24.8786 24.1806 26.8468 24.8037
6 27.0439 26.2509 26.5677 25.2686 25.0419 26.8261 26.9930 25.4744
7 24.3419 24.3227 24.2572 23.8757 22.2074 23.6919 24.4309 24.3844
RMSE
MA
0 1 2 3 4 5 6 7
0 954.7110 989.7878 960.9156 919.3683 954.6413 974.6567 947.3513
AR
1 934.4225 774.9854 934.3813 928.5690 883.1452 925.4138 933.9440 929.7670
2 968.3920 936.5924 755.4113 952.8434 907.7004 946.3705 968.6960 941.0537
3 915.3780 914.6914 909.6730 815.3166 880.2095 910.8437 914.2129 914.3087
4 768.5590 768.7459 748.0707 768.4628 726.4190 760.9641 768.0976 762.1096
5 894.2851 894.2729 889.0147 898.9939 847.5419 842.8445 896.0739 884.6215
6 945.5332 933.0592 925.2396 919.3337 885.2176 923.2844 860.5669 929.7928
7 913.7641 913.1080 911.9017 913.1519 859.3776 892.3402 914.5283 847.5534
MAE
MA
0 1 2 3 4 5 6 7
0 698.3975 736.6609 695.9397 682.5526 719.9707 724.7853 677.1479
AR
1 671.8743 570.2194 671.5430 674.0071 619.8978 669.3740 663.9741 659.5757
2 718.6782 684.8443 550.4712 676.8909 670.9456 715.4732 715.7172 669.1389
3 674.1866 666.8036 675.5881 618.6949 634.9549 668.1533 667.3293 665.2371
4 574.4397 573.6878 572.3920 574.7976 545.3364 570.3821 578.3856 559.8047
5 692.6350 687.3749 685.6811 682.5329 638.0057 614.4232 693.7877 653.9686
6 702.4733 676.5760 691.5056 665.9882 647.9229 694.2569 673.4394 670.6232
7 658.7846 656.5033 657.8981 646.4526 597.5844 644.9735 662.0828 636.9221
El correlograma de la serie de evidencia para pensar en un modelo del tipo AR(4) con la
inclusión de rezagos 1 y 4 únicamente debido a su grado de significancia estadística. Este
modelo podría estar acompañado de un componente de media móvil en el rezago uno
que permita recoger las dinámicas de ajuste en el corto plazo determinadas por el término
aleatorio del error en el primer rezago. Es decir que se puede estar pensando en un
modelo del tipo ARMA([1 4],1).
241
Note que aunque el rezago 23 parece significativo estadísticamente, no necesariamente
indica que deba ser incluido, esto debido a que se está tratando con un correlograma
muestral, y por tanto es posible conseguir un rezago significativo de 20 posibles cuando
en verdad no lo es, con un intervalo de confianza del 95%.
Combinando entonces este análisis con los resultados obtenidos por las metodologías
SCAN, ESACF, MINIC y ARIMAIN se obtienen entonces los siguientes modelos tentativos
Modelo
Tentativo
Representaciones polinómicas
M1 ARMA([1 4],1)
M2 ARMA(5,1)
M3 ARMA(6,1)
M4 ARMA(4,0)
M5 ARMA(5,0)
M6 ARMA(3,3)
M7 ARMA(4,4)
M8 ARMA(1,3)
M9 ARMA(1,1)
Tabla 91 Identificación modelos tentativos serie LR3000(1:50)
242
10.9.4 Resultados Estimación-Diagnóstico Series Restantes
10.9.4.1 Serie DLR250
M1 M2 M3 M4 M5 M6
0.051 (0.88)
0.057 (1.53)
0.128 (0.78)
0.059 (1.39)
0.053 (1.26)
0.079* (4.68)
-0.6277*
(-5.1)
-0.709* (-3.2)
-0.590* (-4.59)
-0.725* (-5.54)
-0.838* (-23.4)
-0.226* (-0.9)
-0.078 (-0.26)
-0.043 (0.01)
-0.035 (-0.04)
0.213 (1.21)
-0.623* (-5.30)
-0.237
(-1.286) -0.575* (-16.4)
0.359
(10.32)
-0.336** (-2.13)
-0.784* (-16.8)
Akaike AIC Schwarz SIC
1.9246 2.065
1.9484 2.0295
2.1685 2.4701
1.888 2.01
1.938 2.060
1.512 1.717
Lju
ng-B
ox
Q-S
tat
Q(8) 6.9887 [0.430]
12.984 [0.073]
2.614 [0.956]
3.658 [0.723]
4.843 [0.564]
3.198 [0.525]
Q(16) 12.091 [0.672]
20.165 [0.166]
7.1831 [0.970]
11.210 [0.669]
10.617 [0.716]
15.256 [0.228]
Q(20) 12.861 [0.846]
20.999 [0.337]
13.354 [0.770]
11.070 [0.891]
17.755 [0.338]
Shapiro-Wilk 0.9673 [0.490]
0.9844 [0.924]
0.9822 [0.903]
0.9548 [0.305]
0.9800 [0.735]
0.965 [0.355]
Media | | 6.12E-14 0.1308 2.77E-12 0.6109 0.0422 0.0513
0.687 0.678 0.680 0.557 0.601 0.464
Estabilidad Si Si Si Si Si Si
Notas:
1. Valores de probabilidad en paréntesis rectangular []
2. * simboliza significancia al 1%, ** al 5% y *** al 10%. La ausencia de estos simboliza no
significancia a algún nivel comúnmente utilizado.
Dentro de todas las posibles identificaciones tentativas únicamente M1, M2 y M4
presentaron significancia en todos sus coeficientes. Adicionalmente los modelo M3 y M5
243
terminan llevando al modelo M1 una vez sustraído sus componentes poco significativos.
Al observar detalladamente cada modelo es posible evidenciar que el modelo cuya
representación se da por medio del primer rezago de media móvil es decir, M2 no parece
aprovechar muy bien las dinámicas de corto plazo debido a la que se rechaza la
presencia de ruido hasta el rezago 8 en el término de perturbación. Esto hace que se
descarte el modelo.
Aunque el modelo M1 es un modelo bien comportado estadísticamente, la inclusión del
rezago 7 de media móvil permite mejorar su comportamiento debido a la reducción en la
sumatoria de cuadrados sin penalidad por la inclusión, indicada en la reducción de los
criterios de información. Todo esto sin sacrificar la parsimonia del modelo.
Ahora bien, aunque el modelo M4 parece ser el modelo definitivo, es necesario revisar si
por medio de la inclusión de otros rezagos significativos antes del séptimo de media móvil
el modelo mejoraría sus propiedades. Esto se logró incluyendo el rezago 2 y el 3 de
media móvil al modelo M4. Estos rezagos permiten mejorar los criterios de información,
consiguiendo los más bajos entre los seis modelos y permite además, y muy importante,
obtener una desviación estándar del error más pequeña que la de los modelos M1 y M4.
Este aspecto es esencial para alcanzar un buen modelo de pronóstico. Este modelo se
registró en M6.
10.9.4.2 Serie TR500
Acorde a lo mencionado anteriormente sobre la necesidad de la inclusión de la tendencia
determinística en la estimación del modelo y la condición de ruido blanco una vez
sustraída la misma. No fue posible el ajuste de ninguno de los once modelos preliminares
una vez se incluye la tendencia en la estimación. Esto sucede puesto que el entrar en la
estimación los componentes de tendencia hace que cuando se intente incluir un
autoregresivo o media móvil de cualquier tipo este se vuelva muy poco significativo (con
valores del estadístico t muy cercanos a cero), debido a que se está intentando estimar un
ruido blanco.
Es por esto que se decidió a escoger el modelo únicamente con tendencia el cual tiene
ciertas peculiaridades de las cuales se justifica un análisis más profundo. El modelo
estimado únicamente con componentes determinísticos de tendencia induce a estar
parados en una regresión de detrending del tipo (D10) donde el término de perturbación
necesariamente representará a la serie una vez sustraída la tendencia determinística. De
la regresión escogida, una vez sustraídos los componentes no significativos se tiene que
244
donde el error será igual a la variable original menor los componentes de tendencia
significativos para la serie
es decir que el error será simplemente la serie original rescalda en media cero debido a la
sustracción de la tendencia (i.e. ) por lo que la condición de media cero se
cumple muy bien con un | | | | . Acorde a lo mencionado en la sección de
identificación de las series restantes, se encontró que la serie TR500dt mostraba
evidencias claras de ser un ruido blanco, por lo que la condición de no autocorrelación
serial en los residuos del modelo se cumple de igual manera. Sin embargo, no se puede
estar hablar de ruido blanco gaussiano a menos que la serie original siga una distribución
normal y dicha condición no se cumple por lo que el estadístico de Shapiro Wilk es igual a
0.862 con un valor de probabilidad por debajo de 0.01. Dicha situación sucede de igual
manera si la serie hubiese sido estabilizada de varianza por medio de una función
logarítmica, Box-Cox o una normalización del tipo . Por lo que el
replanteamiento de la transformación no permite su corrección.
Por consiguiente el modelo será pronosticado utilizando el componente de tendencia
únicamente debido a la característica de ruido en el error y la imposibilidad de ajustar un
modelo con dicha tendencia. Sin embargo, cabe anotar que no siempre sucederá esta
misma situación, como se verá más adelante en la serie LR3000, aunque también era
ruido blanco en tendencia, si fue posible ajustar un modelo ARMA significativo incluyendo
la tendencia y mejorando así las propiedades del modelo. Se dice entonces, siendo más
formales, que en este caso específico no se está estimando en si un modelo ARMA dado
que no existen componentes de error o autoregresivos que estimar, únicamente la
tendencia.
245
10.9.4.3 Serie DLR1500
TABLA 1 DE 2
M1 M2 M3 M4 M5 M6 M7 M8
0.011** (2,45)
0.021 (1.3)
0.01* (2.5)
0.014 (1.68)
0.014 (1.3)
0.022 (1.3)
0.01* (2.89)
0.01*** (1.75)
-0.827* (-11.8)
-1.052* (-3.99)
-0.533* (-3.2)
0.1504 (0.972)
0.017 (0.09)
-1.055* (-3.96)
-0.706* (-3.7)
-0.204 (-1.2)
-1.013* (-3.51)
-0.553** (-2.4)
-0.217 (-1.2)
-1.015* (-3.52)
-0.546** (-2.24)
-0.580** (-2.14)
-0.070 (-0.3)
-0.498** (-2.17)
-0.206 (-0.9)
-0.444* (-3.03)
-0.087 (-0.4)
0.311*** (1.97)
-0.947* (-16.6)
-0.840* (-13.1)
0.0237 (0.383)
0.49*** (1.73)
-0.384* (-2.9)
-0.962* (-32.6)
-0.77* (-5.66)
-0.934* (-15.2)
-0.539* (-4.9)
-0.235***
(-1.7)
0.276**
(2.1)
0.4189*
(3.4)
-0.007 (-0.05)
-0.605* (-6.31)
0.239* (5.28)
0.580* (4.66)
Akaike AIC Schwarz SIC
0.2407 0.3180
0.3195 0.4353
0.1771 0.333
0.2096 0.5820
0.2120 0.5882
0.1234 0.4709
0.2544 0.3713
0.325 0.5237
Lju
ng
-Box
Q-S
tat
Q(8) 6.8243 [0.447]
5.9271 [0.431]
6.283 [0.280]
4.229 [0.04]
3.3792 [0.066]
8.639 [0.003]
6.246 [0.396]
5.825 [0.213]
Q(16) 11.695 [0.634]
13.319 [0.332]
11.903 [0.536]
5.381 [0.716]
4.819 [0.777]
12.160 [0.144]
11.246 [0.667]
11.510 [0.486]
Q(20) 13.369 [0.819]
14.120 [0.721]
14.294 [0.646]
8.412 [0.752]
7.77 [0.802]
14.788 [0.253]
12.311 [0.831]
13.089 [0.666]
Shapiro-Wilk 1.293
[>0.99] 1.285
[>0.99] 0.949 [0.06]
0.979 [0.740]
0.976 [0.624]
1.34 [>0.99]
0.9653 [0.326]
0.963 [0.297]
Media | | 0.888 0.065 0.7144 0.0062 3.59E-11 0.0246 0.3108 0.052
0.2625 0.2697 0.244 0.2195 0.2186 0.2164 0.2606 0.2581
Estabilidad Si Si Si Si Si Si Si Si
Notas: 1. Valores de probabilidad en paréntesis rectangular [] 2. * simboliza significancia al 1%, ** al 5% y *** al 10%. La ausencia de estos simboliza no significancia a algún nivel comúnmente utilizado.
246
TABLA 2 DE 2
M9 M10 M11 M12
0.02
(1.34) 0.01* (2.93)
0.0148 (1.10)
0.0073 (0.797)
-0.022 (-0.09)
-0.799 (-10.97)
-0.535* (-3.9)
-0.011 (-0.05)
-0.673* (-4.4)
-0.408***
(-1.9)
-0.469* (-3.1)
-0.188 (-1.12)
-0.454* (-3.2)
-0.129 (-0.8)
-0.084 (-0.5)
0.353* (3.2)
-0.739* (-3.6)
-0.499* (-11.38)
-0.359 (-1.1)
-0.920* (-14.51)
0.759* (4.09)
-0.746* (-20.12)
0.4816* (14.18)
Akaike AIC Schwarz SIC
0.3505 0.7601
0.1383 0.2553
0.1065 0.3572
0.1831 0.3376
Lju
ng-B
ox
Q-S
tat
Q(8) 7.633 [0.006]
5.9703 [0.427]
1.9708 [0.578]
6.055 [0.301]
Q(16) 11.794 [0.108]
11.697 [0.631]
3.995 [0.970]
10.753 [0.631]
Q(20) 13.993 [0.233]
14.024 [0.728]
7.109 [0.955]
12.475 [0.771]
Shapiro-Wilk 0.9835 [0.851]
0.9429 [0.037]
0.972 [0.513]
1.396 [>0.99]
Media | | 0.0122 0.7955 5.6E-12 0.1899
0.2312 0.2445 0.2232 0.2468
Estabilidad Si Si Si Si
Notas:
1. Valores de probabilidad en paréntesis rectangular []
2. * simboliza significancia al 1%, ** al 5% y *** al 10%. La ausencia de estos simboliza no
significancia a algún nivel comúnmente utilizado.
247
Observe en el modelo M2 como la intuición previa sobre la inclusión del coeficiente de
media móvil en el octavo rezago se ve validada por su alta significancia estadística, sin
embargo incluir éste no trae beneficios en la reducción de la suma de residuos al
cuadrado debido que es mitigado por los efectos de estimar un parámetro adicional.
Lo que compete al modelo M4, éste parece estar estimando adecuadamente. Sin
embargo existen ciertos aspectos que lo hacen poco deseable. Primero, la forma como se
presentan los coeficientes, los cuales son todos significativos, parece dar indicios claros
de la presencia de coeficientes redundantes que violarían el principio de parsimonia por
completo. Este es el ejemplo claro que no siempre el hecho que todos los coeficientes
sean significativos, significa que se cumple con dicho principio. Un cambio en un
parámetro puede compararse con un cambio en otro parámetro, sin que la suma de
cuadrados se altere (Guerrero (2003)) por lo que parámetros estimados con correlaciones
altas tanto positivas como negativas son indicadores de casusas de inestabilidad en el
modelo. La forma como se observa la correlación entre dos coeficientes estimados para la
detección de posibles coeficientes redundantes se da bajo la siguiente formula estadística
comúnmente utilizada
( ) ( )
√ ( )
√( )( )
Si tomamos por ejemplo los coeficientes y estimados para el
modelo M4, se tendrá que
( ) √
por lo que la correlación entre estos dos coeficientes es sumamente alta y se sabe que se
está bajo la presencia de dos coeficientes redundantes. Este mismo fenómeno ocurre
entre los coeficientes y , y ,
y y por ultimo y . Es decir que existe dentro
de todos estos parámetros muchos que podrían catalogarse como factores
aproximadamente comunes en el polinomio autoregresivo. Este problema se corrige
entonces cancelando dichos parámetros y reestimando el modelo. Al realizar esto, los
resultados determinaron que ninguno de los parámetros era significativo, por lo que el
modelo no es un modelo adecuado. En parte esto se podía comprobar si se observaba
que M4, por más que tenía muchos rezagos significativos, era incapaz de capturar las
dinámicas de la información disponible para corto plazo, esto si se observa el estadístico
Ljung-Box para el rezago 8.
248
En cuanto al modelo M5, una vez se realiza el proceso de sustracción iterada de
coeficientes, comenzando por el menos significativo se llega a encontrar un modelo del
tipo M11 el cual permite obtener un criterio de información AIC y SIC más pequeño así
como una evidencia tacita de ruido blanco en el término de perturbación determinado por
valores de probabilidad más elevados. Esto lo que está queriendo decir es que el modelo
M11 permite capturar bastante mejor las dinámicas que subyacen al proceso estocástico
que rige la serie, puesto que utiliza de una manera mucho más adecuada la información
con la que dispone. Por consiguiente este nuevo modelo reestimado se postula como un
buen candidato.
De la misma manera que con el modelo M5, el modelo M6 presentó coeficientes poco
significativos, por lo que la sustracción iterada de los mismos permitió alcanzar un modelo
mucho más parsimonioso con menores valores de los criterios de información y ahora con
ruido en el término del error. Este modelo se registró en M12 para su póstuma
comparación.
En cuanto al modelo M7 y M8, la eliminación iterada de rezagos no significativos conduce
en ambos casos a un modelo del tipo M1. Por lo que ambos modelos son descartados
directamente. De manera similar sucedió con los modelos M3 y M9 los cuales por medio
de la misma estrategia de eliminación-reestimación-validación se logró llegar a un modelo
del tipo M10.
Es decir, se tienen al final 3 candidatos posibles, los cuales corresponden a las últimas
tres columnas de la segunda tabla (Tabla 2 de 2). estos modelos son M10, M11 y M12. Se
decidió por escoger el modelo M11 puesto que fue el modelo que presento un mejor
diagnóstico de los tres, determinado por una muy buena captura de las dinámicas tanto
de corto como de largo plazo, determinado por la poca significancia de las
autocorrelaciones en el termino del error, una media mucho más cercana a cero y fue el
modelo con menor desviación estándar de los tres en el término de perturbación.
249
10.9.4.4 Serie LR3000
TABLA 1 DE 2
M1 M2 M3 M4 M5 M6 M7
7.286* (87.34)
7.31* (116.8)
7.30* (89.5)
7.47* (169.4)
7.45* (171.3)
7.47* (188.1)
7.40* (80.09)
0.309** (2.138)
0.306*** (1.99)
0.325*** (1.77)
-0.288*** (-1.80)
-0.293*** (-1.75)
-0.380 (-1.26)
-0.265 (-1.60)
-0.255 (-1.56)
-0.432** (-2.49)
-0.436** (-2.41)
-0.784* (-3.99)
0.114 (0.64)
0.086 (0.45)
-0.186 (-1.03)
-0.223 (-1.16)
0.0578 (0.20)
0.289** (2.28)
0.254 (1.32)
0.264 (1.31)
0.0563 (0.32)
0.091 (0.489)
-0.708* (-5.8)
0.012 (0.07)
-0.063 (-0.312)
-0.134
(-0.768)
0.1036 (0.6)
-0.99*
(-7.359) -0.99*
(-11.26) -0.99* (-6.19)
0.137 (0.54)
0.476**
(2.4)
-0.56** (-2.4)
0.874* (25.6)
0.0018* (8.72)
0.0017* (10.37)
0.0017* (9.07)
0.0013* (7.37)
0.0013* (7.72)
0.0013* (7.83)
0.0015* (4.52)
-3.3E-0.5*
(-8.30) -3.1E.05*
(-9.60) -3.1E-05*
(-8.74) -2.2E-05*
(-5.96) -2.3E-05*
(-6.26) -2.3E-05*
(-6.25) -2.3E-05*
(-3.88)
Akaike AIC Schwarz SIC
-0.1914 0.0470
-0.1652 0.1960
-0.1025 0.3029
0.2042 0.4824
0.2358 0.5570
0.1543 0.5086
0.2161 0.4149
Lju
ng-B
ox
Q-S
tat
Q(8) 3.815 [0.576]
1.568 [0.456]
1.7247 [0.189]
2.616 [0.855]
2.095 [0.553]
3.680 [0.159]
16.00 [0.014]
Q(16) 10.709 [0.635]
8.170 [0.612]
7.462 [0.589]
8.010 [0.784]
8.329 [0.684]
9.333 [0.501]
21.709 [0.085]
Q(20) 14.851 [0.606]
10.662 [0.712]
10.106 [0.685]
10.772 [0.823]
11.052 [0.749]
16.566 [0.280]
33.325 [0.015]
Shapiro-Wilk 0.9806 [0.741]
0.9821 [0.804]
0.9840 [0.867]
0.9744 [0.5177]
0.9703 [0.4464]
0.9734 [0.489]
0.978 [0.665]
Media | | 0.2533 0.10056 0.00399 7.98E-11 5.29E-11 0.1134 0.0414
Estabilidad Si Si Si Si Si Si Si
Notas: 1. Valores de probabilidad en paréntesis rectangular [] 2. * simboliza significancia al 1%, ** al 5% y *** al 10%. La ausencia de estos simboliza no significativo a algún nivel comúnmente utilizado.
3. Y Corresponden a los coeficientes de los grados de tendencia y respectivamente.
250
TABLA 2 DE 2 M8 M9
7.47*
(174.7) 7.41*
(194.0)
0.116
(0.199) 0.574* (4.25)
-0.455 (-0.77)
-0.96* (-17.7)
-0.254 (-1.03)
0.188
(1.023)
0.0013* (7.44)
0.0015* (9.6)
-2.24E-05*
(-6.00) -2.58E-05*
(-7.83)
Akaike AIC Schwarz SIC
0.1927 0.4630
0.0822 0.2752
Lju
ng-B
ox
Q-S
tat
Q(8) 3.711 [0.446]
7.357 [0.289]
Q(16) 9.042 [0.699]
13.707 [0.472]
Q(20) 14.983 [0.526]
20.102 [0.327]
Shapiro-Wilk 1.313
[>0.99] 1.367
[>0.99] Media | | 0.0124 0.9915
Estabilidad Si Si
Notas:
1. Valores de probabilidad en paréntesis rectangular []
2. * simboliza significancia al 1%, ** al 5% y *** al 10%. La ausencia de estos simboliza no
significativo a algún nivel comúnmente utilizado.
3. Y Corresponden a los coeficientes de los grados
de tendencia y respectivamente.
251
Observe que se estimaron para todos los tipos de modelos plausibles revisados en la
etapa de identificación los grados de tendencia determinística que fueron identificados
previamente. Estos compontes de tendencia presentaron significancia estadística fuerte
(menor al 1%) para cualquier modelo que se halla estimado dentro de los 8 modelos
tentativos. Esto deja ver una vez más que dicho componente debe hacer parte tanto de la
estimación del modelo como del pronóstico del mismo.
Ahora bien, no todos los modelos identificados presentan comportamientos ideales para el
ajuste de la serie con tendencia determinística. Es decir, estimar modelos con y sin la
tendencia, aunque no cambian la significancia del componente determinístico de la
tendencia como se mencionó, si cambian la forma como el modelo es identificado, puesto
que se está estimando el mejor modelo con su parte de tendencia. Por ejemplo, el modelo
AR(1) que se ajusta a los datos adecuadamente sin incluir tendencia presenta un
coeficiente poco significativo al incluir este componente determinístico dentro del
modelo. Esto en parte tiene que ver con lo mencionado anteriormente sobre el hecho que
las serie sea ruido blanco una vez realizado el proceso de detrending. Sin embargo, como
se observa, es posible la identificación de un modelo de ajuste ARMA para una serie de
este tipo, solo si se estima la tendencia y se ajusta un modelo adecuado con ella.
Fuer por esto que se decidió por la elección del modelo M1 como el mejor modelo de
ajuste. Esto se debe al hecho que además de ser un modelo parsimonioso, es el modelo
con menor desviación estándar en el término de perturbación, condición esencial para el
adecuado funcionamiento del pronóstico. Este modelo cuenta además con
autocorrelación serial cero en los residuales, se distribuyen normalmente bajo la prueba
de contraste de Shapiro Wilk y tienen media cero determinada por el coeficiente | |
en la prueba de media presentada por Guerrero (2003). Todas estas condiciones de
diagnóstico permitirán realizar un pronóstico mucho más adecuado puesto que el modelo
estará bien comportando. Un aspecto además importante que presentó esta serie fue el
menor criterio de información tanto AIC como SIC de todos los tipos de modelos sumado
al hecho que los modelo M2 y M3 una vez realizado el proceso de sustracción iterativa de
los coeficientes poco significativos, de manera similar a como se realizó para la serie
LR1000, terminen llevando a un modelo del tipo M1. Esto lleva a pensar que dicho modelo
puede ser meritorio de ser elegido como el mejor.
252
10.9.5 Resultados Diagnóstico Rolling con Rolling2.m.
10.9.5.1 Serie R250
Modelo 1
Medi a del Er r or - Guer r er o( 2003, p. 144) Model o 1: 0. 11861 Val i daci ón del supuest o Pr ueba de Nor mal i dad Li l l i ef or s Test al 95% de conf i anza Model o 1: 0. 21868 Val i daci ón del supuest o
253
Modelo 2
Medi a del Er r or - Guer r er o( 2003, p. 144) Model o 2: 0. 013207 Val i daci ón del supuest o Pr ueba de Nor mal i dad Li l l i ef or s Test al 95% de conf i anza Model o 2: 0. 3915 Val i daci ón del supuest o
254
Modelo 3
Medi a del Er r or - Guer r er o( 2003, p. 144) Model o 3: 0. 086971 Val i daci ón del supuest o Pr ueba de Nor mal i dad Li l l i ef or s Test al 95% de conf i anza Model o 3: 0. 30986 Val i daci ón del supuest o
Modelo 4
255
Medi a del Er r or - Guer r er o( 2003, p. 144) Model o 4: 0. 023087 Val i daci ón del supuest o Pr ueba de Nor mal i dad Li l l i ef or s Test al 95% de conf i anza Model o 4: 0. 38621 Val i daci ón del supuest o
Modelo 5
256
Medi a del Er r or - Guer r er o( 2003, p. 144) Model o 5: 0. 061544 Val i daci ón del supuest o Pr ueba de Nor mal i dad Li l l i ef or s Test al 95% de conf i anza Model o 5: 0. 5 Val i daci ón del supuest o
Modelo 6
257
Medi a del Er r or - Guer r er o( 2003, p. 144) Model o 6: 0. 061664 Val i daci ón del supuest o Pr ueba de Nor mal i dad Li l l i ef or s Test al 95% de conf i anza Model o 6: 0. 5 Val i daci ón del supuest o
10.9.5.2 Serie R500
Modelo 1
258
Medi a del Er r or - Guer r er o( 2003, p. 144) Model o 1: 0. 023473 Val i daci ón del supuest o Pr ueba de Nor mal i dad Li l l i ef or s Test al 95% de conf i anza Model o 1: 0. 5 Val i daci ón del supuest o
Modelo 2
259
Medi a del Er r or - Guer r er o( 2003, p. 144) Model o 2: 0. 22471 Val i daci ón del supuest o Pr ueba de Nor mal i dad Li l l i ef or s Test al 95% de conf i anza Model o 2: 0. 5 Val i daci ón del supuest o
Modelo 3
260
Medi a del Er r or - Guer r er o( 2003, p. 144) Model o 3: 0. 024607 Val i daci ón del supuest o Pr ueba de Nor mal i dad Li l l i ef or s Test al 95% de conf i anza Model o 3: 0. 5 Val i daci ón del supuest o
Modelo 4
261
Medi a del Er r or - Guer r er o( 2003, p. 144) Model o 4: 0. 0021542 Val i daci ón del supuest o Pr ueba de Nor mal i dad Li l l i ef or s Test al 95% de conf i anza Model o 4: 0. 2451 Val i daci ón del supuest o
Modelo 5
262
Medi a del Er r or - Guer r er o( 2003, p. 144) Model o 5: 0. 25206 Val i daci ón del supuest o Pr ueba de Nor mal i dad Li l l i ef or s Test al 95% de conf i anza Model o 5: 0. 5 Val i daci ón del supuest o
Modelo 6
263
Medi a del Er r or - Guer r er o( 2003, p. 144) Model o 6: 0. 23342 Val i daci ón del supuest o Pr ueba de Nor mal i dad Li l l i ef or s Test al 95% de conf i anza Model o 6: 0. 5 Val i daci ón del supuest o
10.9.5.3 Serie R1000
Modelo 1
264
Medi a del Er r or - Guer r er o( 2003, p. 144) Model o 1: 0. 069637 Val i daci ón del supuest o Pr ueba de Nor mal i dad Li l l i ef or s Test al 95% de conf i anza Model o 1: 0. 25098 Val i daci ón del supuest o
Se tiene que el término de perturbación muestra que no existe autocorrelación
significativa estadísticamente, lo que conduciría a una serie de errores de ruido blanco
validando así el supuesto de variables aleatorias mutuamente independientes.
El supuesto de normalidad se ve satisfecho tanto en las pruebas del estadístico Lilliefors,
pues no se logra rechazar la hipótesis nula de normalidad, como en la gráfica de acople
de la función de densidad de la normal estándar con la función de densidad del termino de
perturbación, como lo muestra los resultados del algoritmo.
La ultima gráfica en la coordenada (2,2) nombrada como Error vs Tiempo presenta
condiciones importantes para validar otros supuestos. Se muestran 2 limites en color rojo,
estos representan los intervalos los cuales determinarán si existen o no
observaciones aberrantes o Outliers en los datos. De llegar a mostrar observaciones
aberrantes, es decir cuando algún dato sobrepase la frontera de dichos limites, se
considerará la posibilidad de que la ocurrencia de dicho valor haya sido poco probable
265
que ocurriese bajo el proceso estocástico que describe la serie. En ese caso se mostrará
una barra color amarillo claro donde se halla sobrepasado el límite, advirtiendo que dicho
evento ocurrió. Sin embargo, la declaración de una observación como Outlier debe
estudiarse bien por la persona que realiza el estudio, y no es condición vital para
determinar que el modelo está mal especificado, si se llegase a explicar su procedencia.
Para este ejemplo particular observe que la gráfica muestra una observación aberrante en
el número 32; sin embargo se cree que esto no afecta el diagnóstico puesto que
consultando con la organización no fue posible hallar algún tipo de error en la toma de
datos en ese período de tiempo particular. Se contrasto además la forma de obtención de
la serie acorde al método del autor y al método de la organización y se evidencio que fue
la misma. Por lo tanto no hay indicios para mostrar que se deba tratar esta observación
como un outliers.
Dentro de la misma gráfica se puede observar que la varianza del error parece no variar a
lo largo del tiempo mostrando que se valida el supuesto 2 visto en la anterior sección. Por
último, se observa como dentro de la gráfica la media de la serie, representada como la
línea puntada roja de color más oscuro, se encuentra muy cercana a cero. Condición que
determina la verificación del supuesto 1 justificada además por el valor de | |
mostrado como salida del algoritmo donde | | toma el valor de 0.069 según la
terminología vista en la teoría de la sección anterior por Guerrero (2003, p.144).
Modelo 2
266
Medi a del Er r or - Guer r er o( 2003, p. 144) Model o 2: 0. 045476 Val i daci ón del supuest o Pr ueba de Nor mal i dad Li l l i ef or s Test al 95% de conf i anza Model o 2: 0. 40827 Val i daci ón del supuest o
Modelo 3
267
Medi a del Er r or - Guer r er o( 2003, p. 144) Model o 3: 0. 050012 Val i daci ón del supuest o Pr ueba de Nor mal i dad Li l l i ef or s Test al 95% de conf i anza Model o 3: 0. 3497 Val i daci ón del supuest o
Modelo 4
268
Medi a del Er r or - Guer r er o( 2003, p. 144) Model o 4: 0. 053278 Val i daci ón del supuest o Pr ueba de Nor mal i dad Li l l i ef or s Test al 95% de conf i anza Model o 4: 0. 5 Val i daci ón del supuest o
Modelo 5
269
Medi a del Er r or - Guer r er o( 2003, p. 144) Model o 5: 0. 076825 Val i daci ón del supuest o Pr ueba de Nor mal i dad Li l l i ef or s Test al 95% de conf i anza Model o 5: 0. 078421 Val i daci ón del supuest o
Modelo 6
270
Medi a del Er r or - Guer r er o( 2003, p. 144) Model o 6: 0. 074666 Val i daci ón del supuest o Pr ueba de Nor mal i dad Li l l i ef or s Test al 95% de conf i anza Model o 6: 0. 050747 Val i daci ón del supuest o
10.9.5.4 Serie R1500
Modelo 1
271
Medi a del Er r or - Guer r er o( 2003, p. 144) Model o 1: 0. 5623 Val i daci ón del supuest o Pr ueba de Nor mal i dad Li l l i ef or s Test al 95% de conf i anza Model o 1: 0. 5 Val i daci ón del supuest o
Modelo 2
272
Medi a del Er r or - Guer r er o( 2003, p. 144) Model o 2: 0. 049686 Val i daci ón del supuest o Pr ueba de Nor mal i dad Li l l i ef or s Test al 95% de conf i anza Model o 2: 0. 37314 Val i daci ón del supuest o
Modelo 3
273
Medi a del Er r or - Guer r er o( 2003, p. 144) Model o 3: 0. 097185 Val i daci ón del supuest o Pr ueba de Nor mal i dad Li l l i ef or s Test al 95% de conf i anza Model o 3: 0. 41884 Val i daci ón del supuest o
Modelo 4
274
Medi a del Er r or - Guer r er o( 2003, p. 144) Model o 4: 0. 18013 Val i daci ón del supuest o Pr ueba de Nor mal i dad Li l l i ef or s Test al 95% de conf i anza Model o 4: 0. 36341 Val i daci ón del supuest o
Modelo 5
275
Medi a del Er r or - Guer r er o( 2003, p. 144) Model o 5: 0. 1741 Val i daci ón del supuest o Pr ueba de Nor mal i dad Li l l i ef or s Test al 95% de conf i anza Model o 5: 0. 38979 Val i daci ón del supuest o
Modelo 6
276
Medi a del Er r or - Guer r er o( 2003, p. 144) Model o 6: 0. 84186 Val i daci ón del supuest o Pr ueba de Nor mal i dad Li l l i ef or s Test al 95% de conf i anza Model o 6: 0. 34499 Val i daci ón del supuest o
10.9.5.5 Serie R3000
Modelo 1
277
Medi a del Er r or - Guer r er o( 2003, p. 144) Model o 1: 0. 58243 Val i daci ón del supuest o Pr ueba de Nor mal i dad Li l l i ef or s Test al 95% de conf i anza Model o 1: 0. 24977 Val i daci ón del supuest o
Modelo 2
278
Medi a del Er r or - Guer r er o( 2003, p. 144) Model o 2: 0. 41029 Val i daci ón del supuest o Pr ueba de Nor mal i dad Li l l i ef or s Test al 95% de conf i anza Model o 2: 0. 5 Val i daci ón del supuest o
Modelo 3
279
Medi a del Er r or - Guer r er o( 2003, p. 144) Model o 3: 0. 41527 Val i daci ón del supuest o Pr ueba de Nor mal i dad Li l l i ef or s Test al 95% de conf i anza Model o 3: 0. 5 Val i daci ón del supuest o
Modelo 4
280
Medi a del Er r or - Guer r er o( 2003, p. 144) Model o 4: 0. 38316 Val i daci ón del supuest o Pr ueba de Nor mal i dad Li l l i ef or s Test al 95% de conf i anza Model o 4: 0. 5 Val i daci ón del supuest o
Modelo 5
281
Medi a del Er r or - Guer r er o( 2003, p. 144) Model o 5: 0. 41156 Val i daci ón del supuest o Pr ueba de Nor mal i dad Li l l i ef or s Test al 95% de conf i anza Model o 5: 0. 5 Val i daci ón del supuest o
Modelo 6
282
Medi a del Er r or - Guer r er o( 2003, p. 144) Model o 6: 0. 26936 Val i daci ón del supuest o Pr ueba de Nor mal i dad Li l l i ef or s Test al 95% de conf i anza Model o 6: 0. 30422 Val i daci ón del supuest o
10.9.6 Pronósticos de los Mejores Modelos
283
Gráfica 18 Pronóstico serie R500(1:45)
Gráfica 19 Pronóstico serie R500(1:50)
0
10000
20000
30000
40000
50000
60000
70000
80000
90000
100000
1 3 5 7 9 11 1 3 5 7 9 11 1 3 5 7 9 11 1 3 5 7 9 11 1 3 5 7
2010 2011 2012 2013 2014
Lav
alo
zas
Pronóstico R250
Pronóstico
R250
0
20000
40000
60000
80000
100000
120000
1 3 5 7 9 11 1 3 5 7 9 11 1 3 5 7 9 11 1 3 5 7 9 11 1 3 5 7
2010 2011 2012 2013 2014
Lav
alo
zas
Pronóstico R500
Pronóstico
R500
284
Gráfica 20 Pronóstico serie R1000(1:50)
Gráfica 21 Pronóstico serie R1500(1:50)
0
5000
10000
15000
20000
25000
30000
35000
40000
1 3 5 7 9 11 1 3 5 7 9 11 1 3 5 7 9 11 1 3 5 7 9 11 1 3 5 7
2010 2011 2012 2013 2014
Lav
alo
zas
Pronóstico R1000
Pronóstico
R1000
0
1000
2000
3000
4000
5000
6000
1 3 5 7 9 11 1 3 5 7 9 11 1 3 5 7 9 11 1 3 5 7 9 11 1 3 5 7
2010 2011 2012 2013 2014
Lav
alo
zas
Pronóstico R1500
Pronóstico
R1500
285
Gráfica 22 Pronóstico serie R3000(1:50)
0
1000
2000
3000
4000
5000
6000
7000
1 3 5 7 9 11 1 3 5 7 9 11 1 3 5 7 9 11 1 3 5 7 9 11 1 3 5 7
2010 2011 2012 2013 2014
Lav
alo
zas
Pronóstico R3000
Pronóstico
R3000
286
10.9.7 Resultados Programación Lineal GAMS-ASTEX
10.9.7.1 Forma de Presentación de Resultados ASTEX
10.9.7.2 Resultados Intervalo de Confianza Superior
COSTO TOTAL DE LA PROPUESTA: $ 545’522,964.09
NÚMERO DE UNIDADES A PRODUCIR EN TIEMPO NORMAL
Marzo Abril Mayo Junio Julio Agosto
R250 150721.42 122016.52 134068.78 124437.09 171464.32 162864.10
R500 31157.82 26971.61 23355.72 13746.16 17088.54 0.00
R1000 20675.09 27166.20 32894.82 24806.18 23721.42 25039.25
R1500 5751.35 4510.99 5597.39 4858.61 3793.05 6714.99
R3000 84.00 523.90 0.00 817.34 2731.60 1098.94
287
NÚMERO DE UNIDADES A PRODUCIR EN TIEMPO EXTRA
Marzo Abril Mayo Junio Julio Agosto
R250 0.00 0.00 0.00 54893.78 0.00 49943.73
R500 0.00 0.00 0.00 6303.33 0.00 14482.04
R1000 0.00 0.00 0.00 0.00 0.00 0.00
R1500 0.00 0.00 144.83 0.00 0.00 0.00
R3000 3563.69 3796.28 3054.73 2052.81 0.00 1602.34
INVENTARIO FINAL DE PRODUCTO TERMINADO
Marzo Abril Mayo Junio Julio Agosto
R250 81640.28 81640.28 81640.28 81640.28 81640.28 81640.28
R500 10140.61 10140.61 10140.61 10140.61 10140.61 10140.61
R1000 5852.05 5852.05 5852.05 5852.05 5852.05 5852.05
R1500 1676.88 1676.88 1676.88 1676.88 1676.88 1676.88
R3000 1011.23 1011.23 1011.23 1011.23 1011.23 1011.23
NÚMERO DE HORAS EXTRA NECESARIAS
Marzo Abril Mayo Junio Julio Agosto
FebEnvase 0.00 0.00 0.00 0.00 0.00 0.00
Mezclado 60.18 64.11 52.81 129.57 0.00 138.01
Resto 52.12 55.52 46.15 330.79 0.00 353.68
NÚMERO TRABAJADORES NECESARIOS
Marzo Abril Mayo Junio Julio Agosto
N° Total 9.52 9.20 9.21 9.19 9.34 9.34
NÚMERO DE PERSONAS CONTRATADAS
Marzo Abril Mayo Junio Julio Agosto
FebEnvase 0.00 0.00 0.00 0.00 0.00 0.00
Mezclado 0.16 0.00 0.01 0.00 0.00 0.00
Resto 0.00 0.00 0.00 0.00 0.15 0.00
NÚMERO DE PERSONAS DESPEDIDAS
Marzo Abril Mayo Junio Julio Agosto
FebEnvase 0.00 0.00 0.00 0.00 0.00 0.00
Mezclado 0.00 0.00 0.00 0.02 0.00 0.00
Resto 1.64 0.32 0.00 0.00 0.00 0.00
288
10.9.7.3 Resultados Intervalo de Confianza Inferior
COSTO TOTAL DE LA PROPUESTA: $ 195’909,702.18
NÚMERO DE UNIDADES A PRODUCIR EN TIEMPO NORMAL
Marzo Abril Mayo Junio Julio Agosto
R250 24249.11 30631.13 31953.78 34706.47 30959.34 32078.73
R500 31157.82 17951.34 20390.96 3756.95 17088.54 10220.43
R1000 1210.75 8059.77 9158.25 6792.80 6612.41 6604.54
R1500 2027.08 544.34 195.48 2217.39 1717.39 1964.90
R3000 227.41 0.00 0.00 39.14 14.88 0.00
NÚMERO DE UNIDADES A PRODUCIR EN TIEMPO EXTRA
Marzo Abril Mayo Junio Julio Agosto
R250 0.00 0.00 0.00 0.00 0.00 0.00
R500 0.00 9020.27 2964.76 16292.54 0.00 4261.61
R1000 0.00 0.00 0.00 0.00 0.00 0.00
R1500 0.00 1412.86 2350.12 0.00 0.00 723.89
R3000 1459.41 2061.41 1428.62 1347.61 1286.57 1278.11
INVENTARIO FINAL DE PRODUCTO TERMINADO
Marzo Abril Mayo Junio Julio Agosto
R250 9233.26 9233.26 9233.26 9233.26 9233.26 9233.26
R500 10140.61 10140.61 10140.61 10140.61 10140.61 10140.61
R1000 1727.00 1727.00 1727.00 1727.00 1727.00 1727.00
R1500 594.93 594.93 594.93 594.93 594.93 594.93
R3000 544.66 544.66 544.66 544.66 544.66 544.66
NÚMERO DE HORAS EXTRA NECESARIAS
Marzo Abril Mayo Junio Julio Agosto
FebEnvase 0.00 0.00 0.00 0.00 0.00 0.00
Mezclado 24.64 72.11 52.30 68.58 21.73 39.68
Resto 21.35 102.83 63.89 125.14 18.82 53.60
NÚMERO TRABAJADORES NECESARIOS
Marzo Abril Mayo Junio Julio Agosto
N° Total 4.32 4.32 4.32 4.05 4.05 4.05
289
NÚMERO DE PERSONAS CONTRATADAS
Marzo Abril Mayo Junio Julio Agosto
FebEnvase 0.00 0.00 0.00 0.00 0.00 0.00
Mezclado 0.00 0.00 0.00 0.00 0.00 0.00
Resto 0.00 0.00 0.00 0.00 0.00 0.00
NÚMERO DE PERSONAS DESPEDIDAS
Marzo Abril Mayo Junio Julio Agosto
FebEnvase 0.00 0.00 0.00 0.00 0.00 0.00
Mezclado 1.31 0.00 0.00 0.08 0.00 0.00
Resto 5.37 0.00 0.00 0.20 0.00 0.00
10.9.8 Resultados Análisis del Comportamiento de las Variables en la LP
Gráfica 23 Evolución inventario R250 ante cambios en la demanda
0
10000
20000
30000
40000
50000
60000
70000
0 5000 10000 15000 20000 25000 30000 35000 40000
Un
idad
es
Inventario R250
290
Gráfica 24 Evolución inventario R500 ante cambios en la demanda
Gráfica 25 Evolución inventario R1000 ante cambios en la demanda
0
10000
20000
30000
40000
50000
60000
70000
0 5000 10000 15000 20000 25000 30000 35000 40000
Un
idad
es
Inventario R500
0
10000
20000
30000
40000
50000
60000
0 5000 10000 15000 20000 25000 30000 35000 40000
Un
idad
es
Inventario R1000
291
Gráfica 26 Evolución inventario R1500 ante cambios en la demanda
Gráfica 27 Evolución inventario R3000 ante cambios en la demanda
-1000
0
1000
2000
3000
4000
5000
6000
0 5000 10000 15000 20000 25000 30000 35000 40000
Un
idad
es
Inventario R1500
0
500
1000
1500
2000
2500
3000
3500
4000
4500
5000
0 5000 10000 15000 20000 25000 30000 35000 40000
Un
idad
es
Inventario R3000
292
10.9.9 Resultados Análisis Posóptimal.
S O L V E S U M M A R Y MODEL PlanProduccion OBJECTIVE ct TYPE MIP DIRECTION MINIMIZE SOLVER CPLEX FROM LINE 263 **** SOLVER STATUS 1 Normal Completion **** MODEL STATUS 1 Optimal **** OBJECTIVE VALUE 311936701.5278 RESOURCE USAGE, LIMIT 0.046 150.000 ITERATION COUNT, LIMIT 178 500000 IBM ILOG CPLEX Jul 4, 2012 23.9.1 WIN 33924.33953 VS8 x86/MS Windows --- GAMS/Cplex licensed for continuous and discrete problems. Cplex 12.4.0.1 Reading parameter(s) from "C:\Users\user\Documents\gamsdir\projdir\cplex.opt" >> objrng all >> rhsrng all Finished reading from "C:\Users\user\Documents\gamsdir\projdir\cplex.opt" LP status(1): optimal Optimal solution found. Objective : 311936701.527847 EQUATION NAME LOWER CURRENT UPPER ------------- ----- ------- ----- Target -INF 0 +INF ResError(R250, Marzo) -6.537e+004 -3.684e+004 +INF ResError(R250, Abril) -6.109e+004 -6.109e+004 -6.109e+004 ResError(R250, Mayo) -6.599e+004 -6.599e+004 +INF ResError(R250, Junio) -8.291e+004 -8.291e+004 -8.291e+004 ResError(R250, Julio) -7.779e+004 -7.779e+004 -7.779e+004 ResError(R250, Agosto) -INF -9.232e+004 -9.232e+004 ResError(R500, Marzo) -3.116e+004 -3.083e+004 +INF ResError(R500, Abril) -INF -2.697e+004 -2.697e+004 ResError(R500, Mayo) -INF -2.336e+004 -2.336e+004 ResError(R500, Junio) -2.005e+004 -2.005e+004 -2.005e+004 ResError(R500, Julio) -INF -1.709e+004 -1.709e+004 ResError(R500, Agosto) -INF -1.448e+004 -1.448e+004 ResError(R1000, Marzo) -INF -1.32e+004 -7526 ResError(R1000, Abril) -INF -1.443e+004 -1.443e+004 ResError(R1000, Mayo) -INF -1.707e+004 -1.707e+004
ResError(R1000, Junio) -1.28e+004 -1.28e+004 -1.28e+004 ResError(R1000, Julio) -INF -1.232e+004 -1.232e+004 ResError(R1000, Agosto) -1.275e+004 -1.275e+004 -1.275e+004 ResError(R1500, Marzo) -3260 -3163 +INF ResError(R1500, Abril) -2808 -2808 -2808 ResError(R1500, Mayo) -3611 -3611 -3611 ResError(R1500, Junio) -3098 -3098 +INF ResError(R1500, Julio) -2409 -2409 +INF ResError(R1500, Agosto) -INF -4031 -4031 ResError(R3000, Marzo) -INF -2374 -2330 ResError(R3000, Abril) -INF -2814 -2814 ResError(R3000, Mayo) -INF -1971 -1971 ResError(R3000, Junio) -1881 -1881 -1881 ResError(R3000, Julio) -1778 -1778 -1778 ResError(R3000, Agosto) -1752 -1752 -1752 SatDem(R250, Marzo) 3.531e+004 3.684e+004 3.781e+004 SatDem(R250, Abril) 6.109e+004 6.109e+004 6.109e+004 SatDem(R250, Mayo) 6.599e+004 6.599e+004 6.728e+004 SatDem(R250, Junio) 8.291e+004 8.291e+004 8.291e+004 SatDem(R250, Julio) 7.779e+004 7.779e+004 7.779e+004 SatDem(R250, Agosto) 8.31e+004 9.232e+004 9.232e+004 SatDem(R500, Marzo) 3.05e+004 3.083e+004 3.154e+004 SatDem(R500, Abril) 2.318e+004 2.697e+004 2.697e+004 SatDem(R500, Mayo) 2.262e+004 2.336e+004 2.336e+004 SatDem(R500, Junio) 2.005e+004 2.005e+004 2.005e+004 SatDem(R500, Julio) 6849 1.709e+004 1.709e+004 SatDem(R500, Agosto) 0 1.448e+004 1.448e+004 SatDem(R1000, Marzo) 1.208e+004 1.32e+004 1.37e+004 SatDem(R1000, Abril) 1.341e+004 1.443e+004 1.443e+004 SatDem(R1000, Mayo) 1.579e+004 1.707e+004 1.707e+004 SatDem(R1000, Junio) 1.28e+004 1.28e+004 1.28e+004 SatDem(R1000, Julio) 7118 1.232e+004 1.232e+004 SatDem(R1000, Agosto) 1.275e+004 1.275e+004 1.275e+004 SatDem(R1500, Marzo) 3065 3163 3556 SatDem(R1500, Abril) 2808 2808 2808 SatDem(R1500, Mayo) 3611 3611 3611 SatDem(R1500, Junio) 3098 3098 4472 SatDem(R1500, Julio) 2409 2409 3163 SatDem(R1500, Agosto) 3329 4031 4031 SatDem(R3000, Marzo) 823.5 2374 2418 SatDem(R3000, Abril) 0 2814 2814 SatDem(R3000, Mayo) 0 1971 1971 SatDem(R3000, Junio) 1881 1881 1881 SatDem(R3000, Julio) 1778 1778 1778 SatDem(R3000, Agosto) 1752 1752 1752 CapDisN(Marzo) -5.232 0 1.102 CapDisN(Abril) -1.263 0 +INF CapDisN(Mayo) -0.6202 0 1.613
293
CapDisN(Junio) -1.168 0 +INF CapDisN(Julio) -6.956 0 1.434 CapDisN(Agosto) -1.334 0 +INF CapDisE(Marzo) -291.5 0 +INF CapDisE(Abril) -204.5 0 +INF CapDisE(Mayo) -273.7 0 +INF CapDisE(Junio) -83.66 0 +INF CapDisE(Julio) -315.5 0 +INF CapDisE(Agosto) -143.5 0 +INF CapAlm(Marzo) 23.89 318.4 +INF CapAlm(Abril) 23.89 318.4 +INF CapAlm(Mayo) 23.89 318.4 +INF CapAlm(Junio) 23.89 318.4 +INF CapAlm(Julio) 23.89 318.4 +INF CapAlm(Agosto) 23.89 318.4 +INF FuerzaTrabajoN(FabEnvase, Marzo) 0 0 +INF FuerzaTrabajoN(FabEnvase, Abril) 0 0 +INF FuerzaTrabajoN(FabEnvase, Mayo) 0 0 +INF FuerzaTrabajoN(FabEnvase, Junio) 0 0 +INF FuerzaTrabajoN(FabEnvase, Julio) 0 0 +INF FuerzaTrabajoN(FabEnvase, Agosto) 0 0 +INF FuerzaTrabajoN(Mezclado, Marzo) -0.004297 0 0.02169 FuerzaTrabajoN(Mezclado, Abril) -0.04577 0 0.005551 FuerzaTrabajoN(Mezclado, Mayo) -0.0115 0 0.003228 FuerzaTrabajoN(Mezclado, Junio) -0.03938 0 0.004198 FuerzaTrabajoN(Mezclado, Julio) -0.004198 0 0.02158 FuerzaTrabajoN(Mezclado, Agosto) -0.04011 0 0.004394 FuerzaTrabajoN(Resto, Marzo) -0.008169 0 0.01901 FuerzaTrabajoN(Resto, Abril) -0.02086 0 0.01438 FuerzaTrabajoN(Resto, Mayo) -0.008789 0 0.004422 FuerzaTrabajoN(Resto, Junio) -0.2866 0 0.0202 FuerzaTrabajoN(Resto, Julio) -0.0202 0 0.06163 FuerzaTrabajoN(Resto, Agosto) -0.2229 0 0.02114 FuerzaTrabajoE(FabEnvase, Marzo) 0 0 +INF FuerzaTrabajoE(FabEnvase, Abril) 0 0 +INF FuerzaTrabajoE(FabEnvase, Mayo) 0 0 +INF FuerzaTrabajoE(FabEnvase, Junio) 0 0 +INF FuerzaTrabajoE(FabEnvase, Julio) 0 0 +INF FuerzaTrabajoE(FabEnvase, Agosto) 0 0 +INF FuerzaTrabajoE(Mezclado, Marzo) -INF 0 0.2619 FuerzaTrabajoE(Mezclado, Abril) -INF 0 0.6471 FuerzaTrabajoE(Mezclado, Mayo) -INF 0 0.4092 FuerzaTrabajoE(Mezclado, Junio) -INF 0 1.007 FuerzaTrabajoE(Mezclado, Julio) -INF 0 0.1306 FuerzaTrabajoE(Mezclado, Agosto) -INF 0 0.7513 FuerzaTrabajoE(Resto, Marzo) -INF 0 0.2268 FuerzaTrabajoE(Resto, Abril) -INF 0 0.7336 FuerzaTrabajoE(Resto, Mayo) -INF 0 0.3842
FuerzaTrabajoE(Resto, Junio) -INF 0 2.09 FuerzaTrabajoE(Resto, Julio) -INF 0 0.1131 FuerzaTrabajoE(Resto, Agosto) -INF 0 1.597 HorasExtra(FabEnvase, Marzo) 0 0 0 HorasExtra(FabEnvase, Abril) 0 0 0 HorasExtra(FabEnvase, Mayo) 0 0 0 HorasExtra(FabEnvase, Junio) 0 0 0 HorasExtra(FabEnvase, Julio) 0 0 0 HorasExtra(FabEnvase, Agosto) 0 0 0 HorasExtra(Mezclado, Marzo) -INF 0 26.19 HorasExtra(Mezclado, Abril) -INF 0 62.12 HorasExtra(Mezclado, Mayo) -INF 0 42.55 HorasExtra(Mezclado, Junio) -INF 0 88.61 HorasExtra(Mezclado, Julio) -INF 0 14.11 HorasExtra(Mezclado, Agosto) -INF 0 72.12 HorasExtra(Resto, Marzo) -INF 0 22.68 HorasExtra(Resto, Abril) -INF 0 70.43 HorasExtra(Resto, Mayo) -INF 0 39.95 HorasExtra(Resto, Junio) -INF 0 183.9 HorasExtra(Resto, Julio) -INF 0 12.22 HorasExtra(Resto, Agosto) -INF 0 153.3 CambioFuerza(FabEnvase, Marzo) 0 0 +INF CambioFuerza(FabEnvase, Abril) 0 0 0 CambioFuerza(FabEnvase, Mayo) 0 0 0 CambioFuerza(FabEnvase, Junio) 0 0 0 CambioFuerza(FabEnvase, Julio) 0 0 0 CambioFuerza(FabEnvase, Agosto) 0 0 0 CambioFuerza(Mezclado, Marzo) -INF 0 0.7813 CambioFuerza(Mezclado, Abril) -0.009067 0 0.04577 CambioFuerza(Mezclado, Mayo) -0.01195 0 +INF CambioFuerza(Mezclado, Junio) -INF 0 0.1004 CambioFuerza(Mezclado, Julio) -0.03938 0 0.007318 CambioFuerza(Mezclado, Agosto) -0.00766 0 0.04011 CambioFuerza(Resto, Marzo) -INF 0 4.118 CambioFuerza(Resto, Abril) -INF 0 0.0373 CambioFuerza(Resto, Mayo) -0.02086 0 0.0373 CambioFuerza(Resto, Junio) -INF 0 0.1624 CambioFuerza(Resto, Julio) -0.0192 0 0.1327 CambioFuerza(Resto, Agosto) -0.1351 0 0.0201 DetProporcion(R250, Marzo) -INF 0 1.774 DetProporcion(R250, Abril) -INF 0 1 DetProporcion(R250, Mayo) -INF 0 1 DetProporcion(R250, Junio) -INF 0 1 DetProporcion(R250, Julio) -INF 0 1 DetProporcion(R250, Agosto) -INF 0 1 DetProporcion(R500, Marzo) -INF 0 1.011 DetProporcion(R500, Abril) -INF 0 1 DetProporcion(R500, Mayo) -INF 0 1
294
DetProporcion(R500, Junio) -INF 0 1 DetProporcion(R500, Julio) -INF 0 1 DetProporcion(R500, Agosto) -INF 0 1 DetProporcion(R1000, Marzo) -INF 0 0.5703 DetProporcion(R1000, Abril) -INF 0 1 DetProporcion(R1000, Mayo) -INF 0 1 DetProporcion(R1000, Junio) -INF 0 1 DetProporcion(R1000, Julio) -INF 0 1 DetProporcion(R1000, Agosto) -INF 0 1 DetProporcion(R1500, Marzo) -INF 0 1.031 DetProporcion(R1500, Abril) -INF 0 1 DetProporcion(R1500, Mayo) -INF 0 1 DetProporcion(R1500, Junio) -INF 0 1 DetProporcion(R1500, Julio) -INF 0 1 DetProporcion(R1500, Agosto) -INF 0 1 DetProporcion(R3000, Marzo) -INF 0 0.9815 DetProporcion(R3000, Abril) -INF 0 1 DetProporcion(R3000, Mayo) -INF 0 1 DetProporcion(R3000, Junio) -INF 0 1 DetProporcion(R3000, Julio) -INF 0 1 DetProporcion(R3000, Agosto) -INF 0 1 DetTrabTot(Marzo) -0.008169 0 0.03879 DetTrabTot(Abril) -6.31 0 0.009751 DetTrabTot(Mayo) -0.0115 0 0.004422 DetTrabTot(Junio) -6.56 0 0.009843 DetTrabTot(Julio) -0.009843 0 0.04776 DetTrabTot(Agosto) -6.56 0 0.0103 DetCapDisN(Marzo) -1.102 0 5.232 DetCapDisN(Abril) -1127 0 1.263 DetCapDisN(Mayo) -1.613 0 0.6202 DetCapDisN(Junio) -1063 0 1.168 DetCapDisN(Julio) -1.434 0 6.956 DetCapDisN(Agosto) -1159 0 1.334 DetCapDisE(Marzo) -520.6 0 291.5 DetCapDisE(Abril) -502.7 0 204.5 DetCapDisE(Mayo) -543.6 0 273.7 DetCapDisE(Junio) -479.2 0 83.66 DetCapDisE(Julio) -588.1 0 315.5 DetCapDisE(Agosto) -522.7 0 143.5 ResCapMaqN(Marzo) 553.1 1722 +INF ResCapMaqN(Abril) 526.2 1653 +INF ResCapMaqN(Mayo) 571.7 1791 +INF ResCapMaqN(Junio) 452.6 1515 +INF ResCapMaqN(Julio) 555.4 1860 +INF ResCapMaqN(Agosto) 493.7 1653 +INF ResCapMaqE(Marzo) 340.4 861 +INF ResCapMaqE(Abril) 323.8 826.6 +INF ResCapMaqE(Mayo) 351.8 895.4 +INF
ResCapMaqE(Junio) 278.5 757.7 +INF ResCapMaqE(Julio) 341.8 929.9 +INF ResCapMaqE(Agosto) 303.8 826.6 +INF Safty(R250, Marzo) 3.233e+004 3.233e+004 3.233e+004 Safty(R250, Abril) 3.233e+004 3.233e+004 3.233e+004 Safty(R250, Mayo) 3.233e+004 3.233e+004 3.233e+004 Safty(R250, Junio) -INF 3.233e+004 3.233e+004 Safty(R250, Julio) 3.233e+004 3.233e+004 3.233e+004 Safty(R250, Agosto) 2.311e+004 3.233e+004 3.233e+004 Safty(R500, Marzo) 1.014e+004 1.014e+004 1.085e+004 Safty(R500, Abril) 1.014e+004 1.014e+004 1.014e+004 Safty(R500, Mayo) -INF 1.014e+004 1.014e+004 Safty(R500, Junio) 1.014e+004 1.014e+004 1.014e+004 Safty(R500, Julio) 1.014e+004 1.014e+004 1.014e+004 Safty(R500, Agosto) 0 1.014e+004 1.014e+004 Safty(R1000, Marzo) 2929 2929 3265 Safty(R1000, Abril) 2929 2929 2929 Safty(R1000, Mayo) -INF 2929 2929 Safty(R1000, Junio) 2929 2929 2929 Safty(R1000, Julio) -INF 2929 2929 Safty(R1000, Agosto) 2929 2929 2929 Safty(R1500, Marzo) 947.5 947.5 947.5 Safty(R1500, Abril) 947.5 947.5 947.5 Safty(R1500, Mayo) 947.5 947.5 947.5 Safty(R1500, Junio) 947.5 947.5 947.5 Safty(R1500, Julio) 947.5 947.5 1319 Safty(R1500, Agosto) 245.8 947.5 947.5 Safty(R3000, Marzo) 690 690 734 Safty(R3000, Abril) 690 690 690 Safty(R3000, Mayo) -INF 690 690 Safty(R3000, Junio) -INF 690 690 Safty(R3000, Julio) -INF 690 690 Safty(R3000, Agosto) 690 690 690 VARIABLE NAME LOWER CURRENT UPPER ------------- ----- ------- ----- yn(R250, Febrero) 0 212.3 +INF yn(R250, Marzo) 211.4 212.3 214.6 yn(R250, Abril) 211.2 212.3 212.3 yn(R250, Mayo) 206.5 212.3 213.5 yn(R250, Junio) 212.3 212.3 212.3 yn(R250, Julio) 200.4 212.3 214.6 yn(R250, Agosto) 212.3 212.3 212.3 yn(R500, Febrero) 0 424.6 +INF yn(R500, Marzo) 387 424.6 427.6 yn(R500, Abril) 424.6 424.6 424.8 yn(R500, Mayo) 422.5 424.6 425.8
295
yn(R500, Junio) 424.6 424.6 +INF yn(R500, Julio) 424.2 424.6 427.5 yn(R500, Agosto) 424.6 424.6 +INF yn(R1000, Febrero) 0 849.3 +INF yn(R1000, Marzo) 847.2 849.3 853.2 yn(R1000, Abril) 842.5 849.3 849.3 yn(R1000, Mayo) 843.9 849.3 850 yn(R1000, Junio) 790.6 849.3 849.3 yn(R1000, Julio) 846.7 849.3 852.7 yn(R1000, Agosto) 787.8 849.3 849.3 yn(R1500, Febrero) 0 1274 +INF yn(R1500, Marzo) 1263 1274 1279 yn(R1500, Abril) 1274 1274 1274 yn(R1500, Mayo) 1273 1274 1275 yn(R1500, Junio) 1262 1274 1274 yn(R1500, Julio) 1170 1274 1278 yn(R1500, Agosto) -7.665 1274 1274 yn(R3000, Febrero) 0 2548 +INF yn(R3000, Marzo) 2525 2548 2562 yn(R3000, Abril) 2548 2548 +INF yn(R3000, Mayo) 2544 2548 +INF yn(R3000, Junio) 2548 2548 2548 yn(R3000, Julio) 2530 2548 2558 yn(R3000, Agosto) 2548 2548 2548 ye(R250, Febrero) 0 212.3 +INF ye(R250, Marzo) 210.1 212.3 +INF ye(R250, Abril) 212.3 212.3 +INF ye(R250, Mayo) 211.2 212.3 +INF ye(R250, Junio) 212.3 212.3 212.3 ye(R250, Julio) 210.1 212.3 +INF ye(R250, Agosto) 212.3 212.3 212.3 ye(R500, Febrero) 0 424.6 +INF ye(R500, Marzo) 421.6 424.6 +INF ye(R500, Abril) 424.5 424.6 424.6 ye(R500, Mayo) 423.5 424.6 +INF ye(R500, Junio) 389.5 424.6 424.6 ye(R500, Julio) 421.8 424.6 +INF ye(R500, Agosto) -15.17 424.6 424.6 ye(R1000, Febrero) 0 849.3 +INF ye(R1000, Marzo) 845.4 849.3 +INF ye(R1000, Abril) 849.3 849.3 +INF ye(R1000, Mayo) 848.6 849.3 +INF ye(R1000, Junio) 849.3 849.3 +INF ye(R1000, Julio) 845.8 849.3 +INF ye(R1000, Agosto) 849.3 849.3 +INF ye(R1500, Febrero) 0 1274 +INF ye(R1500, Marzo) 1269 1274 +INF ye(R1500, Abril) 1274 1274 1274
ye(R1500, Mayo) 1274 1274 1275 ye(R1500, Junio) 1274 1274 +INF ye(R1500, Julio) 1270 1274 +INF ye(R1500, Agosto) 1274 1274 +INF ye(R3000, Febrero) 0 2548 +INF ye(R3000, Marzo) 2533 2548 2571 ye(R3000, Abril) 2532 2548 2548 ye(R3000, Mayo) 2532 2548 2552 ye(R3000, Junio) 2548 2548 2548 ye(R3000, Julio) 2538 2548 2566 ye(R3000, Agosto) 2548 2548 2548 s(R250, Febrero) -INF 1.58 +INF s(R250, Marzo) 0.6764 1.58 +INF s(R250, Abril) 0.437 1.58 +INF s(R250, Mayo) -4.27 1.58 +INF s(R250, Junio) -3.836 1.58 13.54 s(R250, Julio) -13.54 1.58 +INF s(R250, Agosto) -226.9 1.58 +INF s(R500, Febrero) -INF 3.31 +INF s(R500, Marzo) -34.32 3.31 +INF s(R500, Abril) -1.142 3.31 +INF s(R500, Mayo) 1.142 3.31 38.45 s(R500, Junio) -5.024 3.31 +INF s(R500, Julio) 2.856 3.31 +INF s(R500, Agosto) -436.5 3.31 +INF s(R1000, Febrero) -INF 6.06 +INF s(R1000, Marzo) 3.937 6.06 +INF s(R1000, Abril) -0.6917 6.06 +INF s(R1000, Mayo) 0.6929 6.06 64.75 s(R1000, Junio) -8.816 6.06 +INF s(R1000, Julio) 3.449 6.06 67.51 s(R1000, Agosto) -864.7 6.06 +INF s(R1500, Febrero) -INF 7.93 +INF s(R1500, Marzo) -3.219 7.93 +INF s(R1500, Abril) -6.395e-014 7.93 +INF s(R1500, Mayo) 7.929 7.93 +INF s(R1500, Junio) -3.76 7.93 +INF s(R1500, Julio) -96.17 7.93 +INF s(R1500, Agosto) -1274 7.93 +INF s(R3000, Febrero) -INF 16.27 +INF s(R3000, Marzo) 1.776e-014 16.27 +INF s(R3000, Abril) 1.776e-014 16.27 +INF s(R3000, Mayo) -1.066e-014 16.27 163.3 s(R3000, Junio) -16.27 16.27 163.3 s(R3000, Julio) -32.54 16.27 163.3 s(R3000, Agosto) -2573 16.27 +INF ct -INF 1 +INF ep(R250, Febrero) 0 1.58 +INF
296
ep(R250, Marzo) 0.6764 1.58 +INF ep(R250, Abril) 0 1.58 +INF ep(R250, Mayo) -4.27 1.58 2.723 ep(R250, Junio) -3.836 1.58 +INF ep(R250, Julio) 0 1.58 +INF ep(R250, Agosto) -15.8 1.58 +INF ep(R500, Febrero) 0 3.31 +INF ep(R500, Marzo) -34 3.31 +INF ep(R500, Abril) -34 3.31 +INF ep(R500, Mayo) -34 3.31 +INF ep(R500, Junio) -31.83 3.31 +INF ep(R500, Julio) -34 3.31 +INF ep(R500, Agosto) -34 3.31 +INF ep(R1000, Febrero) 0 6.06 +INF ep(R1000, Marzo) -58 6.06 +INF ep(R1000, Abril) -58 6.06 +INF ep(R1000, Mayo) -58 6.06 +INF ep(R1000, Junio) -52.63 6.06 +INF ep(R1000, Julio) -58 6.06 +INF ep(R1000, Agosto) -55.39 6.06 +INF ep(R1500, Febrero) 0 7.93 +INF ep(R1500, Marzo) -3.219 7.93 +INF ep(R1500, Abril) 0 7.93 +INF ep(R1500, Mayo) 0 7.93 +INF ep(R1500, Junio) -3.76 7.93 7.931 ep(R1500, Julio) -92 7.93 19.62 ep(R1500, Agosto) -92 7.93 +INF ep(R3000, Febrero) 0 16.27 +INF ep(R3000, Marzo) -179.5 16.27 +INF ep(R3000, Abril) -179.5 16.27 +INF ep(R3000, Mayo) -179.5 16.27 +INF ep(R3000, Junio) -163.3 16.27 +INF ep(R3000, Julio) -147 16.27 +INF ep(R3000, Agosto) -130.7 16.27 +INF en(R250, Febrero) 0 15.8 +INF en(R250, Marzo) -1.58 15.8 +INF en(R250, Abril) 0 15.8 +INF en(R250, Mayo) -1.58 15.8 +INF en(R250, Junio) 3.836 15.8 +INF en(R250, Julio) 0 15.8 +INF en(R250, Agosto) 0.6758 15.8 244.2 en(R500, Febrero) 0 34 +INF en(R500, Marzo) -3.31 34 +INF en(R500, Abril) -3.31 34 38.45 en(R500, Mayo) 29.55 34 36.17 en(R500, Junio) 31.83 34 +INF en(R500, Julio) 25.67 34 34.45 en(R500, Agosto) 33.55 34 473.8
en(R1000, Febrero) 0 58 +INF en(R1000, Marzo) -6.06 58 60.12 en(R1000, Abril) 55.88 58 64.75 en(R1000, Mayo) 51.25 58 63.37 en(R1000, Junio) 52.63 58 +INF en(R1000, Julio) 43.12 58 60.61 en(R1000, Agosto) 55.39 58 +INF en(R1500, Febrero) 0 92 +INF en(R1500, Marzo) -7.93 92 +INF en(R1500, Abril) 0 92 +INF en(R1500, Mayo) 0 92 +INF en(R1500, Junio) -7.93 92 +INF en(R1500, Julio) -7.93 92 +INF en(R1500, Agosto) -7.93 92 1374 en(R3000, Febrero) 0 179.5 +INF en(R3000, Marzo) -16.27 179.5 195.8 en(R3000, Abril) 163.3 179.5 195.8 en(R3000, Mayo) 163.3 179.5 195.8 en(R3000, Junio) 163.3 179.5 +INF en(R3000, Julio) 147 179.5 +INF en(R3000, Agosto) 130.7 179.5 +INF nhe(FabEnvase, Febrero) 0 4940 +INF nhe(FabEnvase, Marzo) 0 4940 +INF nhe(FabEnvase, Abril) 0 4940 +INF nhe(FabEnvase, Mayo) 0 4940 +INF nhe(FabEnvase, Junio) 0 4940 +INF nhe(FabEnvase, Julio) 0 4940 +INF nhe(FabEnvase, Agosto) 0 4940 +INF nhe(Mezclado, Febrero) 0 4940 +INF nhe(Mezclado, Marzo) 4079 4940 6455 nhe(Mezclado, Abril) 4339 4940 4986 nhe(Mezclado, Mayo) 4939 4940 5879 nhe(Mezclado, Junio) 4735 4940 4940 nhe(Mezclado, Julio) 4360 4940 6867 nhe(Mezclado, Agosto) 4702 4940 5026 nhe(Resto, Febrero) 0 4940 +INF nhe(Resto, Marzo) 4509 4940 6689 nhe(Resto, Abril) 4859 4940 4988 nhe(Resto, Mayo) 4939 4940 5722 nhe(Resto, Junio) 4734 4940 4940 nhe(Resto, Julio) 4510 4940 7164 nhe(Resto, Agosto) 4701 4940 4977 wn(FabEnvase, Febrero) -INF 1.032e+006 +INF wn(FabEnvase, Marzo) 1.31e+005 1.032e+006 +INF wn(FabEnvase, Abril) 0 1.032e+006 +INF wn(FabEnvase, Mayo) 5.398e+004 1.032e+006 +INF wn(FabEnvase, Junio) 0 1.032e+006 +INF wn(FabEnvase, Julio) 1.496e+005 1.032e+006 +INF
297
wn(FabEnvase, Agosto) 0 1.032e+006 +INF wn(Mezclado, Febrero) -INF 1.032e+006 +INF wn(Mezclado, Marzo) 9.343e+005 1.032e+006 1.217e+006 wn(Mezclado, Abril) 1.022e+006 1.032e+006 1.156e+006 wn(Mezclado, Mayo) 8.513e+005 1.032e+006 1.051e+006 wn(Mezclado, Junio) 9.933e+005 1.032e+006 1.07e+006 wn(Mezclado, Julio) 9.933e+005 1.032e+006 1.166e+006 wn(Mezclado, Agosto) 9.933e+005 1.032e+006 1.081e+006 wn(Resto, Febrero) -INF 1.032e+006 +INF wn(Resto, Marzo) 9.944e+005 1.032e+006 1.124e+006 wn(Resto, Abril) 1.022e+006 1.032e+006 1.048e+006 wn(Resto, Mayo) 9.548e+005 1.032e+006 1.048e+006 wn(Resto, Junio) 1.015e+006 1.032e+006 1.071e+006 wn(Resto, Julio) 1.015e+006 1.032e+006 1.131e+006 wn(Resto, Agosto) 1.015e+006 1.032e+006 1.081e+006 we(FabEnvase, Marzo) 0 -0 +INF we(FabEnvase, Abril) 0 -0 +INF we(FabEnvase, Mayo) 0 -0 +INF we(FabEnvase, Junio) 0 -0 +INF we(FabEnvase, Julio) 0 -0 +INF we(FabEnvase, Agosto) 0 -0 +INF we(Mezclado, Marzo) -0 -0 1.515e+005 we(Mezclado, Abril) -0 -0 4471 we(Mezclado, Mayo) -0 -0 9.77e+004 we(Mezclado, Junio) -0 -0 11.02 we(Mezclado, Julio) -0 -0 2.081e+005 we(Mezclado, Agosto) -0 -0 8271 we(Resto, Marzo) -0 -0 1.75e+005 we(Resto, Abril) -0 -0 4605 we(Resto, Mayo) -0 -0 8.141e+004 we(Resto, Junio) -0 -0 9.186 we(Resto, Julio) -0 -0 2.403e+005 we(Resto, Agosto) -0 -0 3577 h(FabEnvase, Febrero) 0 7.48e+004 +INF h(FabEnvase, Marzo) -5.91e+004 7.48e+004 +INF h(FabEnvase, Abril) 0 7.48e+004 +INF h(FabEnvase, Mayo) 0 7.48e+004 +INF h(FabEnvase, Junio) 0 7.48e+004 +INF h(FabEnvase, Julio) 0 7.48e+004 +INF h(FabEnvase, Agosto) 0 7.48e+004 +INF h(Mezclado, Febrero) 0 7.48e+004 +INF h(Mezclado, Marzo) -5.91e+004 7.48e+004 +INF h(Mezclado, Abril) 6.517e+004 7.48e+004 +INF h(Mezclado, Mayo) -4.947e+004 7.48e+004 8.443e+004 h(Mezclado, Junio) -5.91e+004 7.48e+004 +INF h(Mezclado, Julio) 3.593e+004 7.48e+004 +INF h(Mezclado, Agosto) -9895 7.48e+004 +INF h(Resto, Febrero) 0 7.48e+004 +INF
h(Resto, Marzo) -5.91e+004 7.48e+004 +INF h(Resto, Abril) -5.91e+004 7.48e+004 +INF h(Resto, Mayo) -4.918e+004 7.48e+004 +INF h(Resto, Junio) -5.91e+004 7.48e+004 +INF h(Resto, Julio) 3.577e+004 7.48e+004 +INF h(Resto, Agosto) -9724 7.48e+004 +INF f(FabEnvase, Febrero) 0 5.91e+004 +INF f(FabEnvase, Marzo) -7.48e+004 5.91e+004 +INF f(FabEnvase, Abril) 0 5.91e+004 +INF f(FabEnvase, Mayo) 0 5.91e+004 +INF f(FabEnvase, Junio) 0 5.91e+004 +INF f(FabEnvase, Julio) 0 5.91e+004 +INF f(FabEnvase, Agosto) 0 5.91e+004 +INF f(Mezclado, Febrero) 0 5.91e+004 +INF f(Mezclado, Marzo) -7.48e+004 5.91e+004 1.563e+005 f(Mezclado, Abril) -6.517e+004 5.91e+004 +INF f(Mezclado, Mayo) -7.48e+004 5.91e+004 +INF f(Mezclado, Junio) 2.023e+004 5.91e+004 7.907e+004 f(Mezclado, Julio) -3.593e+004 5.91e+004 +INF f(Mezclado, Agosto) 9895 5.91e+004 +INF f(Resto, Febrero) 0 5.91e+004 +INF f(Resto, Marzo) -3.357e+004 5.91e+004 9.617e+004 f(Resto, Abril) 4.246e+004 5.91e+004 6.902e+004 f(Resto, Mayo) 4.918e+004 5.91e+004 +INF f(Resto, Junio) 2.007e+004 5.91e+004 7.553e+004 f(Resto, Julio) -3.577e+004 5.91e+004 +INF f(Resto, Agosto) 9724 5.91e+004 +INF wtot(Marzo) -2.684e+004 -0 6.71e+004 wtot(Abril) -9634 -0 1.664e+004 wtot(Mayo) -5.381e+004 -0 9077 wtot(Junio) -1.149e+004 -0 3.887e+004 wtot(Julio) -1.149e+004 -0 7.222e+004 wtot(Agosto) -1.149e+004 -0 4.92e+004 prop(R250, Marzo) -3.329e+004 -0 +INF prop(R250, Abril) -6.983e+004 -0 5.52e+004 prop(R250, Mayo) -3.861e+005 -0 7.543e+004 prop(R250, Junio) -4.49e+005 -0 9.92e+005 prop(R250, Julio) -9.307e+005 -0 4.213e+005 prop(R250, Agosto) -2.109e+007 -0 1.396e+006 prop(R500, Marzo) -1.16e+006 -0 +INF prop(R500, Abril) -1.201e+005 -0 1.015e+006 prop(R500, Mayo) -5.063e+004 -0 1.04e+005 prop(R500, Junio) -7.046e+005 -0 4.346e+004 prop(R500, Julio) -7759 -0 1.424e+005 prop(R500, Agosto) -6.369e+006 -0 6576 prop(R1000, Marzo) -2.802e+004 -0 +INF prop(R1000, Abril) -9.742e+004 -0 3.064e+004 prop(R1000, Mayo) -9.162e+004 -0 1.153e+005
298
prop(R1000, Junio) -7.511e+005 -0 6.868e+004 prop(R1000, Julio) -3.216e+004 -0 1.832e+005 prop(R1000, Agosto) -7.834e+005 -0 3.329e+004 prop(R1500, Marzo) -3.526e+004 -0 +INF prop(R1500, Abril) -2.227e+004 -0 3.131e+004 prop(R1500, Mayo) -3.818 -0 2.864e+004 prop(R1500, Junio) -3.621e+004 -0 3.276 prop(R1500, Julio) -2.508e+005 -0 2.816e+004 prop(R1500, Agosto) -5.166e+006 -0 4.196e+005 prop(R3000, Marzo) -3.863e+004 -0 +INF prop(R3000, Abril) -4.579e+004 -0 4.579e+004 prop(R3000, Mayo) -3.206e+004 -0 3.206e+004 prop(R3000, Junio) -3.377e+005 -0 3.061e+004 prop(R3000, Julio) -2.903e+005 -0 5.786e+004 prop(R3000, Agosto) -2.576e+005 -0 8.554e+004 CapDispN(Marzo) -199 -0 497.5 CapDispN(Abril) -74.41 -0 128.5 CapDispN(Mayo) -383.6 -0 64.71 CapDispN(Junio) -96.82 -0 327.5 CapDispN(Julio) -78.89 -0 495.8 CapDispN(Agosto) -88.75 -0 380 CapDispE(Marzo) -323.3 -0 808.4 CapDispE(Abril) -120.9 -0 208.9 CapDispE(Mayo) -623.4 -0 105.2 CapDispE(Junio) -157.3 -0 532.2 CapDispE(Julio) -128.2 -0 805.7 CapDispE(Agosto) -144.2 -0 617.5 LOWER LEVEL UPPER MARGINAL ---- EQU Target . . . 1.000 Target funcion objetivo ---- EQU ResError error de produccion (1) LOWER LEVEL UPPER MARGINAL R250 .Marzo -3.684E+4 -3.684E+4 -3.684E+4 1.580 R250 .Abril -6.109E+4 -6.109E+4 -6.109E+4 . R250 .Mayo -6.599E+4 -6.599E+4 -6.599E+4 1.580 R250 .Junio -8.291E+4 -8.291E+4 -8.291E+4 -3.836 R250 .Julio -7.779E+4 -7.779E+4 -7.779E+4 . R250 .Agosto -9.232E+4 -9.232E+4 -9.232E+4 -15.800 R500 .Marzo -3.083E+4 -3.083E+4 -3.083E+4 3.310 R500 .Abril -2.697E+4 -2.697E+4 -2.697E+4 -34.000
R500 .Mayo -2.336E+4 -2.336E+4 -2.336E+4 -34.000 R500 .Junio -2.005E+4 -2.005E+4 -2.005E+4 -31.832 R500 .Julio -1.709E+4 -1.709E+4 -1.709E+4 -34.000 R500 .Agosto -1.448E+4 -1.448E+4 -1.448E+4 -34.000 R1000.Marzo -1.320E+4 -1.320E+4 -1.320E+4 -58.000 R1000.Abril -1.443E+4 -1.443E+4 -1.443E+4 -58.000 R1000.Mayo -1.707E+4 -1.707E+4 -1.707E+4 -58.000 R1000.Junio -1.280E+4 -1.280E+4 -1.280E+4 -52.633 R1000.Julio -1.232E+4 -1.232E+4 -1.232E+4 -58.000 R1000.Agosto -1.275E+4 -1.275E+4 -1.275E+4 -55.389 R1500.Marzo -3162.925 -3162.925 -3162.925 7.930 R1500.Abril -2808.459 -2808.459 -2808.459 . R1500.Mayo -3611.145 -3611.145 -3611.145 . R1500.Junio -3097.796 -3097.796 -3097.796 7.930 R1500.Julio -2409.278 -2409.278 -2409.278 7.930 R1500.Agosto -4030.850 -4030.850 -4030.850 -92.000 R3000.Marzo -2374.260 -2374.260 -2374.260 -179.520 R3000.Abril -2814.332 -2814.332 -2814.332 -179.520 R3000.Mayo -1970.658 -1970.658 -1970.658 -179.520 R3000.Junio -1881.219 -1881.219 -1881.219 -163.250 R3000.Julio -1778.168 -1778.168 -1778.168 -146.980 R3000.Agosto -1752.499 -1752.499 -1752.499 -130.710 ---- EQU SatDem satisfaccion de la demanda (2) LOWER LEVEL UPPER MARGINAL R250 .Marzo 36837.618 36837.618 36837.618 241.979 R250 .Abril 61092.927 61092.927 61092.927 242.655 R250 .Mayo 65992.114 65992.114 65992.114 243.092 R250 .Junio 82914.606 82914.606 82914.606 238.822 R250 .Julio 77794.333 77794.333 77794.333 240.402 R250 .Agosto 92321.761 92321.761 92321.761 226.858 R500 .Marzo 30829.208 30829.208 30829.208 470.816 R500 .Abril 26971.609 26971.609 26971.609 436.498 R500 .Mayo 23355.718 23355.718 23355.718 435.356 R500 .Junio 20049.491 20049.491 20049.491 438.666 R500 .Julio 17088.542 17088.542 17088.542 433.642 R500 .Agosto 14482.042 14482.042 14482.042 436.498 R1000.Marzo 13196.852 13196.852 13196.852 858.106 R1000.Abril 14428.579 14428.579 14428.579 862.042 R1000.Mayo 17070.440 17070.440 17070.440 861.350 R1000.Junio 12797.259 12797.259 12797.259 867.410 R1000.Julio 12315.414 12315.414 12315.414 858.595 R1000.Agosto 12749.442 12749.442 12749.442 864.655 R1500.Marzo 3162.925 3162.925 3162.925 1368.884 R1500.Abril 2808.459 2808.459 2808.459 1365.666 R1500.Mayo 3611.145 3611.145 3611.145 1365.666
299
R1500.Junio 3097.796 3097.796 3097.796 1373.595 R1500.Julio 2409.278 2409.278 2409.278 1369.835 R1500.Agosto 4030.850 4030.850 4030.850 1273.665 R3000.Marzo 2374.260 2374.260 2374.260 2523.998 R3000.Abril 2814.332 2814.332 2814.332 2523.998 R3000.Mayo 1970.658 1970.658 1970.658 2523.998 R3000.Junio 1881.219 1881.219 1881.219 2540.268 R3000.Julio 1778.168 1778.168 1778.168 2556.538 R3000.Agosto 1752.499 1752.499 1752.499 2572.808 ---- EQU CapDisN capacidad disponible T normal (3) LOWER LEVEL UPPER MARGINAL Marzo -INF . . -1525.749 Abril -INF -1.263 . . Mayo -INF . . -384.804 Junio -INF -1.168 . . Julio -INF . . -1027.052 Agosto -INF -1.334 . . ---- EQU CapDisE capacidad disponible T extra (4) LOWER LEVEL UPPER MARGINAL Marzo -INF -291.533 . . Abril -INF -204.459 . . Mayo -INF -273.655 . . Junio -INF -83.660 . . Julio -INF -315.479 . . Agosto -INF -143.506 . . ---- EQU CapAlm capacidad de almacenamiento (5) LOWER LEVEL UPPER MARGINAL Marzo -INF 23.891 318.387 . Abril -INF 23.891 318.387 . Mayo -INF 23.891 318.387 . Junio -INF 23.891 318.387 . Julio -INF 23.891 318.387 . Agosto -INF 23.891 318.387 . ---- EQU FuerzaTrabajoN fuerza de trabajo T normal (6) LOWER LEVEL UPPER MARGINAL FabEnvase.Marzo -INF . . .
FabEnvase.Abril -INF . . . FabEnvase.Mayo -INF . . . FabEnvase.Junio -INF . . . FabEnvase.Julio -INF . . . FabEnvase.Agosto -INF . . . Mezclado .Marzo -INF . . -7.014E+5 Mezclado .Abril -INF . . -1.022E+6 Mezclado .Mayo -INF . . -1.111E+6 Mezclado .Junio -INF . . -9.365E+5 Mezclado .Julio -INF . . -9.277E+5 Mezclado .Agosto -INF . . -1.022E+6 Resto .Marzo -INF . . -8.257E+5 Resto .Abril -INF . . -1.022E+6 Resto .Mayo -INF . . -9.874E+5 Resto .Junio -INF . . -9.366E+5 Resto .Julio -INF . . -9.274E+5 Resto .Agosto -INF . . -1.022E+6 ---- EQU FuerzaTrabajoE fuerza de trabajo T extra (7) LOWER LEVEL UPPER MARGINAL FabEnvase.Marzo -INF . . . FabEnvase.Abril -INF . . . FabEnvase.Mayo -INF . . . FabEnvase.Junio -INF . . . FabEnvase.Julio -INF . . . FabEnvase.Agosto -INF . . . Mezclado .Marzo -INF . . EPS Mezclado .Abril -INF . . EPS Mezclado .Mayo -INF . . EPS Mezclado .Junio -INF . . EPS Mezclado .Julio -INF . . EPS Mezclado .Agosto -INF . . EPS Resto .Marzo -INF . . EPS Resto .Abril -INF . . EPS Resto .Mayo -INF . . EPS Resto .Junio -INF . . EPS Resto .Julio -INF . . EPS Resto .Agosto -INF . . EPS ---- EQU HorasExtra horas extra (8) LOWER LEVEL UPPER MARGINAL FabEnvase.Marzo . . . . FabEnvase.Abril . . . . FabEnvase.Mayo . . . .
300
FabEnvase.Junio . . . . FabEnvase.Julio . . . . FabEnvase.Agosto . . . . Mezclado .Marzo . . . -4939.570 Mezclado .Abril . . . -4939.570 Mezclado .Mayo . . . -4939.570 Mezclado .Junio . . . -4939.570 Mezclado .Julio . . . -4939.570 Mezclado .Agosto . . . -4939.570 Resto .Marzo . . . -4939.570 Resto .Abril . . . -4939.570 Resto .Mayo . . . -4939.570 Resto .Junio . . . -4939.570 Resto .Julio . . . -4939.570 Resto .Agosto . . . -4939.570 ---- EQU CambioFuerza cambio en la fuerza de trabajo (9) LOWER LEVEL UPPER MARGINAL FabEnvase.Marzo . . . 74800.000 FabEnvase.Abril . . . . FabEnvase.Mayo . . . . FabEnvase.Junio . . . . FabEnvase.Julio . . . . FabEnvase.Agosto . . . . Mezclado .Marzo . . . -5.910E+4 Mezclado .Abril . . . 65165.885 Mezclado .Mayo . . . 74800.000 Mezclado .Junio . . . -5.910E+4 Mezclado .Julio . . . 35928.882 Mezclado .Agosto . . . -9895.143 Resto .Marzo . . . -5.910E+4 Resto .Abril . . . -5.910E+4 Resto .Mayo . . . -4.918E+4 Resto .Junio . . . -5.910E+4 Resto .Julio . . . 35772.322 Resto .Agosto . . . -9724.352 ---- EQU DetProporcion proporcion producido sobre demanda (10) LOWER LEVEL UPPER MARGINAL R250 .Marzo . . . EPS R250 .Abril . . . EPS R250 .Mayo . . . EPS R250 .Junio . . . EPS R250 .Julio . . . EPS
R250 .Agosto . . . EPS R500 .Marzo . . . EPS R500 .Abril . . . EPS R500 .Mayo . . . EPS R500 .Junio . . . EPS R500 .Julio . . . EPS R500 .Agosto . . . EPS R1000.Marzo . . . EPS R1000.Abril . . . EPS R1000.Mayo . . . EPS R1000.Junio . . . EPS R1000.Julio . . . EPS R1000.Agosto . . . EPS R1500.Marzo . . . EPS R1500.Abril . . . EPS R1500.Mayo . . . EPS R1500.Junio . . . EPS R1500.Julio . . . EPS R1500.Agosto . . . EPS R3000.Marzo . . . EPS R3000.Abril . . . EPS R3000.Mayo . . . EPS R3000.Junio . . . EPS R3000.Julio . . . EPS R3000.Agosto . . . EPS ---- EQU DetTrabTot trabajadores totales en la empresa (11) LOWER LEVEL UPPER MARGINAL Marzo . . . 2.0579E+5 Abril . . . EPS Mayo . . . 53976.435 Junio . . . EPS Julio . . . 1.4961E+5 Agosto . . . EPS ---- EQU DetCapDisN calculo capacidad disponible en T normal (12) LOWER LEVEL UPPER MARGINAL Marzo . . . 1525.749 Abril . . . EPS Mayo . . . 384.804 Junio . . . EPS Julio . . . 1027.052 Agosto . . . EPS
301
---- EQU DetCapDisE calculo capacidad disponible en T extra (13) LOWER LEVEL UPPER MARGINAL Marzo . . . EPS Abril . . . EPS Mayo . . . EPS Junio . . . EPS Julio . . . EPS Agosto . . . EPS ---- EQU ResCapMaqN limitar capacidad disponible T normal (14) LOWER LEVEL UPPER MARGINAL Marzo -INF 553.150 1722.000 . Abril -INF 526.195 1653.120 . Mayo -INF 571.721 1790.880 . Junio -INF 452.576 1515.360 . Julio -INF 555.435 1859.760 . Agosto -INF 493.720 1653.120 . ---- EQU ResCapMaqE limitar capacidad disponible T extra (15) LOWER LEVEL UPPER MARGINAL Marzo -INF 340.400 861.000 . Abril -INF 323.812 826.560 . Mayo -INF 351.828 895.440 . Junio -INF 278.509 757.680 . Julio -INF 341.806 929.880 . Agosto -INF 303.828 826.560 . ---- EQU Safty inventario de seguridad (16) LOWER LEVEL UPPER MARGINAL R250 .Marzo 32328.173 32328.173 +INF 0.904 R250 .Abril 32328.173 32328.173 +INF 1.143 R250 .Mayo 32328.173 32328.173 +INF 5.850 R250 .Junio 32328.173 32328.173 +INF . R250 .Julio 32328.173 32328.173 +INF 15.124 R250 .Agosto 32328.173 32328.173 +INF 228.438 R500 .Marzo 10140.612 10140.612 +INF 37.629 R500 .Abril 10140.612 10140.612 +INF 4.452 R500 .Mayo 10140.612 10140.612 +INF . R500 .Junio 10140.612 10140.612 +INF 8.334 R500 .Julio 10140.612 10140.612 +INF 0.454
R500 .Agosto 10140.612 10140.612 +INF 439.808 R1000.Marzo 2929.210 2929.210 +INF 2.123 R1000.Abril 2929.210 2929.210 +INF 6.752 R1000.Mayo 2929.210 2929.210 +INF . R1000.Junio 2929.210 2929.210 +INF 14.876 R1000.Julio 2929.210 2929.210 +INF . R1000.Agosto 2929.210 2929.210 +INF 870.715 R1500.Marzo 947.469 947.469 +INF 11.149 R1500.Abril 947.469 947.469 +INF 7.930 R1500.Mayo 947.469 947.469 +INF 0.001 R1500.Junio 947.469 947.469 +INF 11.690 R1500.Julio 947.469 947.469 +INF 104.100 R1500.Agosto 947.469 947.469 +INF 1281.595 R3000.Marzo 689.959 689.959 +INF 16.270 R3000.Abril 689.959 689.959 +INF 16.270 R3000.Mayo 689.959 689.959 +INF . R3000.Junio 689.959 689.959 +INF . R3000.Julio 689.959 689.959 +INF . R3000.Agosto 689.959 689.959 +INF 2589.078 ---- VAR yn cantidad producida de producto i en el periodo t en tiempo normal LOWER LEVEL UPPER MARGINAL R250 .Febrero . . +INF 212.320 R250 .Marzo . 65365.791 +INF . R250 .Abril . 61092.927 +INF . R250 .Mayo . 65992.114 +INF . R250 .Junio . 75449.789 +INF . R250 .Julio . 77794.333 +INF . R250 .Agosto . 83101.991 +INF . R500 .Febrero . . +INF 424.640 R500 .Marzo . 31157.821 +INF . R500 .Abril . 23175.628 +INF . R500 .Mayo . 23355.718 +INF . R500 .Junio . . +INF 0.003 R500 .Julio . 17088.542 +INF . R500 .Agosto . . +INF 0.003 R1000.Febrero . . +INF 849.290 R1000.Marzo . 7526.062 +INF . R1000.Abril . 14428.579 +INF . R1000.Mayo . 17070.440 +INF . R1000.Junio . 12797.259 +INF . R1000.Julio . 12315.414 +INF . R1000.Agosto . 12749.442 +INF . R1500.Febrero . . +INF 1273.930 R1500.Marzo . 3260.394 +INF . R1500.Abril . 2344.078 +INF .
302
R1500.Mayo . 2512.303 +INF . R1500.Junio . 3097.796 +INF . R1500.Julio . 2409.278 +INF . R1500.Agosto . 4030.850 +INF . R3000.Febrero . . +INF 2547.860 R3000.Marzo . 779.433 +INF . R3000.Abril . . +INF 0.007 R3000.Mayo . . +INF 3.810 R3000.Junio . 595.190 +INF . R3000.Julio . 942.671 +INF . R3000.Agosto . 661.346 +INF . ---- VAR ye cantidad producida de producto i en el periodo t en tiempo extra LOWER LEVEL UPPER MARGINAL R250 .Febrero . . +INF 212.320 R250 .Marzo . . +INF 2.259 R250 .Abril . . +INF 0.003 R250 .Mayo . . +INF 1.146 R250 .Junio . 7464.817 +INF . R250 .Julio . . +INF 2.256 R250 .Agosto . 9219.771 +INF . R500 .Febrero . . +INF 424.640 R500 .Marzo . . +INF 2.991 R500 .Abril . 3795.981 +INF . R500 .Mayo . . +INF 1.142 R500 .Junio . 20049.491 +INF . R500 .Julio . . +INF 2.856 R500 .Agosto . 14482.042 +INF . R1000.Febrero . . +INF 849.290 R1000.Marzo . . +INF 3.938 R1000.Abril . . +INF 0.001 R1000.Mayo . . +INF 0.693 R1000.Junio . . +INF 1.3970E-4 R1000.Julio . . +INF 3.449 R1000.Agosto . . +INF 1.3970E-4 R1500.Febrero . . +INF 1273.930 R1500.Marzo . . +INF 4.711 R1500.Abril . 464.381 +INF . R1500.Mayo . 1098.841 +INF . R1500.Junio . . +INF 0.001 R1500.Julio . . +INF 3.761 R1500.Agosto . . +INF 0.001 R3000.Febrero . . +INF 2547.860 R3000.Marzo . 1550.785 +INF . R3000.Abril . 2814.332 +INF . R3000.Mayo . 1970.658 +INF .
R3000.Junio . 1286.030 +INF . R3000.Julio . 835.497 +INF . R3000.Agosto . 1091.154 +INF . ---- VAR s cantidad en inventario del producto i al final del periodo t LOWER LEVEL UPPER MARGINAL R250 .Febrero 3800.000 3800.000 3800.000 -240.399 R250 .Marzo . 32328.173 +INF . R250 .Abril . 32328.173 +INF . R250 .Mayo . 32328.173 +INF . R250 .Junio . 32328.173 +INF . R250 .Julio . 32328.173 +INF . R250 .Agosto . 32328.173 +INF . R500 .Febrero 9812.000 9812.000 9812.000 -467.506 R500 .Marzo . 10140.612 +INF . R500 .Abril . 10140.612 +INF . R500 .Mayo . 10140.612 +INF . R500 .Junio . 10140.612 +INF . R500 .Julio . 10140.612 +INF . R500 .Agosto . 10140.612 +INF . R1000.Febrero 8600.000 8600.000 8600.000 -852.046 R1000.Marzo . 2929.210 +INF . R1000.Abril . 2929.210 +INF . R1000.Mayo . 2929.210 +INF . R1000.Junio . 2929.210 +INF . R1000.Julio . 2929.210 +INF . R1000.Agosto . 2929.210 +INF . R1500.Febrero 850.000 850.000 850.000 -1360.954 R1500.Marzo . 947.469 +INF . R1500.Abril . 947.469 +INF . R1500.Mayo . 947.469 +INF . R1500.Junio . 947.469 +INF . R1500.Julio . 947.469 +INF . R1500.Agosto . 947.469 +INF . R3000.Febrero 734.000 734.000 734.000 -2507.728 R3000.Marzo . 689.959 +INF . R3000.Abril . 689.959 +INF . R3000.Mayo . 689.959 +INF . R3000.Junio . 689.959 +INF . R3000.Julio . 689.959 +INF . R3000.Agosto . 689.959 +INF . LOWER LEVEL UPPER MARGINAL ---- VAR ct -INF 3.1194E+8 +INF .
303
ct costo total ---- VAR ep error positivo LOWER LEVEL UPPER MARGINAL R250 .Febrero . . +INF 1.580 R250 .Marzo . 28528.173 +INF . R250 .Abril . . +INF 1.580 R250 .Mayo . . +INF . R250 .Junio . . +INF 5.416 R250 .Julio . . +INF 1.580 R250 .Agosto . . +INF 17.380 R500 .Febrero . . +INF 3.310 R500 .Marzo . 328.612 +INF . R500 .Abril . . +INF 37.310 R500 .Mayo . . +INF 37.310 R500 .Junio . . +INF 35.142 R500 .Julio . . +INF 37.310 R500 .Agosto . . +INF 37.310 R1000.Febrero . . +INF 6.060 R1000.Marzo . . +INF 64.060 R1000.Abril . . +INF 64.060 R1000.Mayo . . +INF 64.060 R1000.Junio . . +INF 58.693 R1000.Julio . . +INF 64.060 R1000.Agosto . . +INF 61.449 R1500.Febrero . . +INF 7.930 R1500.Marzo . 97.469 +INF . R1500.Abril . . +INF 7.930 R1500.Mayo . . +INF 7.930 R1500.Junio . . +INF . R1500.Julio . . +INF . R1500.Agosto . . +INF 99.930 R3000.Febrero . . +INF 16.270 R3000.Marzo . . +INF 195.790 R3000.Abril . . +INF 195.790 R3000.Mayo . . +INF 195.790 R3000.Junio . . +INF 179.520 R3000.Julio . . +INF 163.250 R3000.Agosto . . +INF 146.980 ---- VAR en error negativo LOWER LEVEL UPPER MARGINAL R250 .Febrero . . +INF 15.800 R250 .Marzo . . +INF 17.380
R250 .Abril . . +INF 15.800 R250 .Mayo . . +INF 17.380 R250 .Junio . . +INF 11.964 R250 .Julio . . +INF 15.800 R250 .Agosto . . +INF . R500 .Febrero . . +INF 34.000 R500 .Marzo . . +INF 37.310 R500 .Abril . . +INF . R500 .Mayo . . +INF . R500 .Junio . . +INF 2.168 R500 .Julio . . +INF . R500 .Agosto . . +INF . R1000.Febrero . . +INF 58.000 R1000.Marzo . 5670.790 +INF . R1000.Abril . . +INF . R1000.Mayo . . +INF . R1000.Junio . . +INF 5.367 R1000.Julio . . +INF . R1000.Agosto . . +INF 2.611 R1500.Febrero . . +INF 92.000 R1500.Marzo . . +INF 99.930 R1500.Abril . . +INF 92.000 R1500.Mayo . . +INF 92.000 R1500.Junio . . +INF 99.930 R1500.Julio . . +INF 99.930 R1500.Agosto . . +INF . R3000.Febrero . . +INF 179.520 R3000.Marzo . 44.041 +INF . R3000.Abril . . +INF . R3000.Mayo . . +INF . R3000.Junio . . +INF 16.270 R3000.Julio . . +INF 32.540 R3000.Agosto . . +INF 48.810 ---- VAR nhe numero de horas extra necesarias en la estacion j en el periodo t LOWER LEVEL UPPER MARGINAL FabEnvase.Febrero . . +INF 4939.570 FabEnvase.Marzo . . +INF 4939.570 FabEnvase.Abril . . +INF 4939.570 FabEnvase.Mayo . . +INF 4939.570 FabEnvase.Junio . . +INF 4939.570 FabEnvase.Julio . . +INF 4939.570 FabEnvase.Agosto . . +INF 4939.570 Mezclado .Febrero . . +INF 4939.570 Mezclado .Marzo . 26.187 +INF . Mezclado .Abril . 62.121 +INF .
304
Mezclado .Mayo . 42.553 +INF . Mezclado .Junio . 88.606 +INF . Mezclado .Julio . 14.109 +INF . Mezclado .Agosto . 72.122 +INF . Resto .Febrero . . +INF 4939.570 Resto .Marzo . 22.682 +INF . Resto .Abril . 70.430 +INF . Resto .Mayo . 39.954 +INF . Resto .Junio . 183.903 +INF . Resto .Julio . 12.220 +INF . Resto .Agosto . 153.337 +INF . ---- VAR wn nivel de fuerza de trabajo en el periodo t en la etapa j en T norma l LOWER LEVEL UPPER MARGINAL FabEnvase.Febrero . . . 9.5670E+5 FabEnvase.Marzo . . +INF 9.0051E+5 FabEnvase.Abril . . +INF 1.0315E+6 FabEnvase.Mayo . . +INF 9.7752E+5 FabEnvase.Junio . . +INF 1.0315E+6 FabEnvase.Julio . . +INF 8.8189E+5 FabEnvase.Agosto . . +INF 1.0315E+6 Mezclado .Febrero 2.000 2.000 2.000 1.0906E+6 Mezclado .Marzo . 1.219 +INF . Mezclado .Abril . 1.219 +INF . Mezclado .Mayo . 1.231 +INF . Mezclado .Junio . 1.130 +INF . Mezclado .Julio . 1.130 +INF . Mezclado .Agosto . 1.130 +INF . Resto .Febrero 7.000 7.000 7.000 1.0906E+6 Resto .Marzo . 2.882 +INF . Resto .Abril . 2.845 +INF . Resto .Mayo . 2.845 +INF . Resto .Junio . 2.683 +INF . Resto .Julio . 2.683 +INF . Resto .Agosto . 2.683 +INF . ---- VAR we nivel de fuerza de trabajo en el periodo t en la etapa j en T extra LOWER LEVEL UPPER MARGINAL FabEnvase.Marzo . . +INF EPS FabEnvase.Abril . . +INF EPS FabEnvase.Mayo . . +INF EPS FabEnvase.Junio . . +INF EPS FabEnvase.Julio . . +INF EPS
FabEnvase.Agosto . . +INF EPS Mezclado .Marzo . 0.262 +INF . Mezclado .Abril . 0.647 +INF . Mezclado .Mayo . 0.409 +INF . Mezclado .Junio . 1.007 +INF . Mezclado .Julio . 0.131 +INF . Mezclado .Agosto . 0.751 +INF . Resto .Marzo . 0.227 +INF . Resto .Abril . 0.734 +INF . Resto .Mayo . 0.384 +INF . Resto .Junio . 2.090 +INF . Resto .Julio . 0.113 +INF . Resto .Agosto . 1.597 +INF . ---- VAR h cambio en la fuerza de trabajo por contratacion en el periodo t LOWER LEVEL UPPER MARGINAL FabEnvase.Febrero . . +INF 74800.000 FabEnvase.Marzo . . +INF . FabEnvase.Abril . . +INF 74800.000 FabEnvase.Mayo . . +INF 74800.000 FabEnvase.Junio . . +INF 74800.000 FabEnvase.Julio . . +INF 74800.000 FabEnvase.Agosto . . +INF 74800.000 Mezclado .Febrero . . +INF 74800.000 Mezclado .Marzo . . +INF 1.3390E+5 Mezclado .Abril . . +INF 9634.115 Mezclado .Mayo . 0.012 +INF . Mezclado .Junio . . +INF 1.3390E+5 Mezclado .Julio . . +INF 38871.118 Mezclado .Agosto . . +INF 84695.143 Resto .Febrero . . +INF 74800.000 Resto .Marzo . . +INF 1.3390E+5 Resto .Abril . . +INF 1.3390E+5 Resto .Mayo . . +INF 1.2398E+5 Resto .Junio . . +INF 1.3390E+5 Resto .Julio . . +INF 39027.678 Resto .Agosto . . +INF 84524.352 ---- VAR f cambio en la fuerza de trabajo por despido en el periodo t LOWER LEVEL UPPER MARGINAL FabEnvase.Febrero . . +INF 59100.000 FabEnvase.Marzo . . +INF 1.3390E+5 FabEnvase.Abril . . +INF 59100.000 FabEnvase.Mayo . . +INF 59100.000
305
FabEnvase.Junio . . +INF 59100.000 FabEnvase.Julio . . +INF 59100.000 FabEnvase.Agosto . . +INF 59100.000 Mezclado .Febrero . . +INF 59100.000 Mezclado .Marzo . 0.781 +INF . Mezclado .Abril . . +INF 1.2427E+5 Mezclado .Mayo . . +INF 1.3390E+5 Mezclado .Junio . 0.100 +INF . Mezclado .Julio . . +INF 95028.882 Mezclado .Agosto . . +INF 49204.857 Resto .Febrero . . +INF 59100.000 Resto .Marzo . 4.118 +INF . Resto .Abril . 0.037 +INF . Resto .Mayo . . +INF 9920.289 Resto .Junio . 0.162 +INF . Resto .Julio . . +INF 94872.322 Resto .Agosto . . +INF 49375.648 ---- VAR wtot numero de trabajadores totales en la empresa en el tiempo t LOWER LEVEL UPPER MARGINAL Marzo . 4.101 +INF . Abril . 4.064 +INF . Mayo . 4.076 +INF . Junio . 3.813 +INF . Julio . 3.813 +INF . Agosto . 3.813 +INF . ---- VAR prop proporcion producido sobre demanda del producto i en el tiempo t LOWER LEVEL UPPER MARGINAL R250 .Marzo . 1.774 +INF . R250 .Abril . 1.000 +INF . R250 .Mayo . 1.000 +INF . R250 .Junio . 1.000 +INF . R250 .Julio . 1.000 +INF . R250 .Agosto . 1.000 +INF . R500 .Marzo . 1.011 +INF . R500 .Abril . 1.000 +INF . R500 .Mayo . 1.000 +INF . R500 .Junio . 1.000 +INF . R500 .Julio . 1.000 +INF . R500 .Agosto . 1.000 +INF . R1000.Marzo . 0.570 +INF . R1000.Abril . 1.000 +INF . R1000.Mayo . 1.000 +INF .
R1000.Junio . 1.000 +INF . R1000.Julio . 1.000 +INF . R1000.Agosto . 1.000 +INF . R1500.Marzo . 1.031 +INF . R1500.Abril . 1.000 +INF . R1500.Mayo . 1.000 +INF . R1500.Junio . 1.000 +INF . R1500.Julio . 1.000 +INF . R1500.Agosto . 1.000 +INF . R3000.Marzo . 0.981 +INF . R3000.Abril . 1.000 +INF . R3000.Mayo . 1.000 +INF . R3000.Junio . 1.000 +INF . R3000.Julio . 1.000 +INF . R3000.Agosto . 1.000 +INF . ---- VAR CapDispN capacidad disponible en tiempo normal en el periodo t LOWER LEVEL UPPER MARGINAL Marzo . 553.150 +INF . Abril . 526.195 +INF . Mayo . 571.721 +INF . Junio . 452.576 +INF . Julio . 555.435 +INF . Agosto . 493.720 +INF . ---- VAR CapDispE capacidad disponible en tiempo extra en el periodo t LOWER LEVEL UPPER MARGINAL Marzo . 340.400 +INF . Abril . 323.812 +INF . Mayo . 351.828 +INF . Junio . 278.509 +INF . Julio . 341.806 +INF . Agosto . 303.828 +INF .
306
10.10 Plano de la Organización43
43 Obtenido de Alianzas y/o Industrias Alta Pureza S.A por medio de la gerencia administrativa.
307
Escala -> 1cm:2.857m 2.8571
Tipo <cm> Aprox <m> Aprox
TOTAL
X Y X Y
AREA TOTAL
Planta 10.5 14 30.00 40.00 1200.00
Piso 2 3.80 11.30 42.94
Piso 3 3.80 11.30 42.94
TOTAL 1285.88
Almacenamiento Carbonato de Calcio 1.75 1 5.00 2.86 14.29
Almacenamiento Bicarbonato de Sodio 1.25 1 3.57 2.86 10.20
Almacenamiento de Fosfatos 0.7 0.35 2.00 1.00 2.00
Almacenamiento de Pigmentos y Aromas 0.8 0.5 2.29 1.43 3.27
Almacenamiento Ácido Sulfónico 1.15 1 3.29 2.86 9.39
Almacenamiento de Envases 0.5 3.1 1.43 8.86 12.65
Almacenamiento de Herramientas 3.8 3.18 10.86 9.09 98.64
Almacenamiento de Etiquetas 3.8 6.32 10.86 18.06 196.05
Bodega
A 1.6 9.75 4.57 27.86 127.35
B 2.7 1 7.71 2.86 22.04
Total 149.39
Estantería (x5) 2.1 0.4 6.00 1.14 6.86 34.29
Total Almacenamiento P. Terminado 127.35
% Participación 9.90%
308
10.11 Tablas
10.11.1 Tablas Para Pruebas de Raíz Unitaria.
Distribuciones Acumuladas Empíricas de
Nivel de Significancia
Muestra de tamaño 0.01 0.025 0.05 0.10
Estadístico : Sin constante ni Tendencia ( )
25 -2.66 -2.26 -1.95 -1.60
50 -2.62 -2.25 -1.95 -1.61
100 -2.60 -2.24 -1.95 -1.61
250 -2.58 -2.23 -1.95 -1.62
300 -2.58 -2.23 -1.95 -1.62
-2.58 -2.23 -1.95 -1.62
Estadístico : Constante pero sin Tendencia ( )
25 -3.75 -3.33 -3.00 -2.62
50 -3.58 -3.22 -2.93 -2.60
100 -3.51 -3.17 -2.89 -2.58
250 -3.46 -3.14 -2.88 -2.57
300 -3.44 -3.13 -2.87 -2.57
-3.43 -3.12 -2.86 -2.57
Estadístico : Con Constante y Tendencia ()
25 -4.38 -3.95 -3.60 -3.24
50 -4.15 -3.80 -3.50 -3.18
100 -4.04 -3.73 -3.45 -3.15
250 -3.99 -3.69 -3.43 -3.13
300 -3.98 -3.68 -3.42 -3.13
-3.96 -3.66 -3.41 -3.12
Tomada de: Enders (1948 p. 439, la cual fue reproducida por Fuller (1976). Usada con el
permiso de John Wiley & Sons, Inc.
309
Distribuciones Empíricas de
Nivel de Significancia
Muestra de tamaño 0.10 0.05 0.025 0.01
25 4.12 5.18 6.30 7.88
50 3.94 4.86 5.80 7.06
100 3.86 4.71 5.57 6.70
250 3.81 4.63 5.45 6.52
500 3.79 4.61 5.41 6.47
3.78 4.59 5.38 6.43
25 4.67 5.68 6.75 8.21
50 4.31 5.13 5.94 7.02
100 4.16 4.88 5.59 6.50
250 4.07 4.75 5.40 6.22
500 4.05 4.71 5.35 6.15
4.03 4.68 5.31 6.09
25 5.91 7.24 8.65 10.61
50 5.61 6.73 7.81 9.31
100 5.47 6.49 7.44 8.73
250 5.39 6.34 7.25 8.43
500 5.36 6.30 7.20 8.34
5.34 6.25 7.16 8.27
Tomado de Enders (1948, p.440) la cual fue obtenida de Dickey, David y Wayne A. Fuller
(1981) y fue usada con el permiso de la sociedad de econometría.
310
10.12 Modelos Comparativos
10.12.1 Ajuste modelos comparativos
-20000
-10000
0
10000
20000
30000
40000
50000
60000
70000
80000
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45 47 49
Un
ida
de
s V
en
did
as
Pronóstico R250 Winters Aditivo
R250 Winters Aditivo
-30000
-20000
-10000
0
10000
20000
30000
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43
Re
sid
uo
s (U
nid
ad
es)
311
0
20000
40000
60000
80000
100000
120000
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45 47 49
Un
ida
de
s V
en
did
as
Pronóstico R500 Estacional Simple
R500 Winters Aditivo
-40000
-20000
0
20000
40000
60000
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45 47 49Re
sid
uo
s (U
nid
ad
es)
0
5000
10000
15000
20000
25000
30000
35000
40000
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45 47 49
Un
ida
de
s V
en
did
as
Pronóstico R1000 Estacional Simple
R1000 Estacional Simple
-20000
-10000
0
10000
20000
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45 47 49
Re
sid
uo
s (U
nid
ad
es)
312
0
1000
2000
3000
4000
5000
6000
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45 47 49
Un
ida
de
s V
en
did
as
Pronóstico R1500 Winters Aditivo
R1500 Winters Aditivo
-2000
-1000
0
1000
2000
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45 47 49
Re
sid
uo
s (u
nid
ad
es)
0
1000
2000
3000
4000
5000
6000
7000
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45 47 49
Un
ida
de
s V
en
did
as
Pronóstico R3000 Winters Aditivo
R3000 Winters Aditivo
-2000
0
2000
1 3 5 7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45 47 49
Re
sid
uo
s (U
nid
ad
es)
313
10.12.2 Explicación Modelos Comparativos.
10.12.2.1 Modelo Aditivo Winters
El método Aditivo Winters suele aplicarse cuando en la serie de tiempo existe la presencia
de componentes de tendencia y estacionalidad ya sea de forma aditiva o multiplicativa. Se
intenta entones suavizar los datos por medio del método exponencial de Holt-Winters
cuando el componente sistemático de la demanda tiene un nivel, una tendencia y un
factor estacional.
Características del Método de Holt-Winters
En este tipo de técnicas se hace uso de datos históricos para obtener una nueva
serie más suave q partir de la cual se hace la previsión.
Se toman en consideración todos los datos previos al periodo de previsión
disponibles, aunque se les otorgan pesos decrecientes exponencialmente a
medida que se distancian de dicho periodo.
El método aditivo es mejor cuando el patrón estacional no depende del valor de los datos,
ósea que el patrón estacional no cambia conforma la serie incrementa o disminuye su
valor. A diferencia del multiplicativo que se presenta cuando el patrón estacional en los
datos depende del tamaño de los mismos, es decir que la magnitud del patrón estacional
se incrementa conforma los valores aumentan y decrece cuando los valores de los datos
disminuyen.
Cuando la serie tiene una tendencia, al menos localmente, y un patrón estacional
constante se deberá ajustar un modelo del tipo
donde el valor del pronóstico está dado por
donde se observa que el modelo aditivo se le resta el factor estacional. Este método
entonces calcula los estimados de tres componentes: nivel, tendencia y estacionalidad.
Además calcula los estimados dinámicos con tres ecuaciones para los tres componentes.
Estas ecuaciones dan una mayor ponderación a observaciones recientes y menos
observaciones pasadas. Las ponderaciones decrecen geométricamente a una tasa
constante.
314
Observe que a cada parámetro de la suavización Winter se le da un calor de entre cero y
uno, cuanto mayor sea ese valor, mayor peso se le dara a la observación más reciente.
Para el procedimiento entonces se tiene que
1. Se calcula el promedio de cada una de las dos últimas estaciones de datos y se calcula
la tendencia de crecimiento promedio.
∑
2. Se calcula el promedio global para estimar la constante del nivel.
(
)
3. Se calculan los factores estacionales para cada estación y se normalizan.
4. Pronosticar para periodos en el futuro.
Top Related