Post on 20-Feb-2016
description
Universidad “Fermín Toro”
Vice-Rectorado Académico
Facultad de Ciencias Económicas y Sociales
Escuela de Administración
Asignatura: Análisis de problemas y toma de decisiones
Autor: Diego Silva
Cabudare, Enero del 2014
Compendio de técnicas para la toma de decisiones
Programación Lineal
Se conoce como programación lineal a la técnica de la matemática que
permite la optimización de una función objetivo a través de la aplicación de
diversas restricciones a sus variables. Se trata de un modelo compuesto, por lo
tanto, por una función objetivo y sus restricciones, constituyéndose todos estos
componentes como funciones lineales en las variables en cuestión.
Los modelos de programación lineal contemplan que las variables de
decisión (es decir, la función objetivo y las restricciones) mantienen un
comportamiento de tipo lineal. Esto hace que, a través de su método, se
puedan simplificar los cálculos y obtener un resultado próximo a la realidad.
Veamos un ejemplo de programación lineal para comprender mejor esta
definición. Supongamos que un hombre recibe una herencia de 100.000
dólares y toma la decisión de invertir el dinero. Su contador le recomienda dos
inversiones: comprar acciones de una compañía petrolera, que tienen un
rendimiento del 5%, y adquirir bonos del Estado, que rinden un 9%.
El hombre decide invertir no más de 80.000 dólares en las acciones
petroleras y no menos de 15.000 dólares en los bonos estatales. Por otra
parte, pretende que la inversión en las acciones nunca duplique la inversión en
bonos. Gracias a la programación lineal, puede estimar cómo distribuir su
dinero entre ambas opciones para que sus inversiones le ofrezcan el mayor
beneficio.
El monto a invertir en acciones puede mencionarse como X, mientras
que el monto a invertir en bonos puede nombrarse como Y. Las restricciones,
por otra parte, serán que X no puede tener un valor superior a 80.000,
que Y no puede tener un valor inferior a 15.000 y que X+Y no pueden superar
el valor de 100.000.Si se trasladan dichas variables a una tabla o a un gráfico,
se podrá saber cuáles son las opciones más rentables para el individuo.
Ejemplo: En una granja de pollos se da una dieta "para engordar" con una
composición mínima de 15 unidades de una sustancia A y otras 15 de una
sustancia B. En el mercado solo se encuentran dos clases de compuestos: el
tipo I con una composición de una unidad de A y cinco de B, y el tipo II con
una composición de cinco unidades de A y una de B. El precio del tipo I es de
10 dólares y el del tipo II es de 30 dólares. Se pregunta: ¿Qué cantidades se han de comprar de cada tipo para cubrir las
necesidades con un coste mínimo?
Solución:
Llamamos x a las unidades que se compran de tipo I e y a las que se
compran de tipo II.
Resumamos los datos en una tabla:
Las restricciones son:
La función que nos da el coste es z = 10x + 30y = 10(x + 3y).
00
155155
yx
yxyx
Debemos hacer mínima esta función, sujeta a las restricciones anteriores.
Dibujamos el recinto correspondiente a las restricciones, y la recta 10(x +
3y) = 0 ®
x + 3y = 0, que nos da la dirección de las rectas z = 10(x + 3y).
Por tanto, hay que comprar 2,5 de tipo I y 2,5 de tipo II.
El precio en este caso será de z = 10(2,5 + 3×2,5) = 100 dólares.
Método Simplex
El Método Simplex es un método analítico de solución de problemas
de programación lineal capaz de resolver modelos más complejos que los
resueltos mediante el método gráfico sin restricción en el número de variables.
El Método Simplex es un método iterativo que permite ir mejorando la
solución en cada paso. La razón matemática de esta mejora radica en que el
método consiste en caminar del vértice de un poliedro a un vértice vecino de
2,5).(2,5; en decir, es ;155155
de ónintersecci de punto el en alcanza se mínimo Elyxyx
manera que aumente o disminuya (según el contexto de la función objetivo,
sea maximizar o minimizar), dado que el número de vértices que presenta un
poliedro solución es finito siempre se hallará solución.
Ejemplo:
Resolver el siguiente problema de Programación Lineal utilizando el Método
Simplex:
Max 40*X1 + 60*X2
s.a. 2*X1 + 1*X2 <= 70
1*X1 + 1*X2 <= 40
1*X1 + 3*X2 <= 90
X1 >= 0 X2 >= 0
Para poder aplicar el Método Simplex, es necesario llevar el modelo a su formato
estándar, para lo cual definimos X3, X4, X5 >= 0 como las respectivas variables de holgura para la restricción 1, 2 y 3. De esta forma queda definida la tabla inicial
del método de la siguiente forma:
X1 X2 X3 X4 X5
2 1 1 0 0 70
1 1 0 1 0 40
1 3 0 0 1 90
-40 -60 0 0 0 0
En esta situación, las variables de holgura definen una solución básica factible inicial, condición necesaria para la aplicación del método. Luego, se verifican los
costos reducidos de las variables no básicas (X1 y X2 en la tabla inicial) y se
escoge como variable que entra a la base aquella con el costo reducido "más
negativo". En este caso, X2.
Lógica Bayesiana
La inferencia bayesiana es un tipo de inferencia estadística en la que
las evidencias u observaciones se emplean para actualizar
o inferir la probabilidad de que una hipótesis pueda ser cierta. El nombre
bayesiana proviene del uso frecuente que se hace del teorema de
Bayes durante el proceso de inferencia. El teorema de Bayes se ha derivado
del trabajo realizado por el reverendo Thomas Bayes. Hoy en día, uno de los
campos de aplicación es en la teoría de la decisión, visión artificial (simulación
de la percepción en general) y reconocimiento de patrones por ordenador.
La incertidumbre y la imprecisión son connaturales en el proceso
de razonamiento. La lógica establece unas reglas de inferencia a partir de las
cuales se construye el sistema de razonamiento deductivo, en el que
una proposición determinada es considerada como cierta o falsa, sin que se
admitan grados entre estos dos extremos. Los métodos de razonamiento
aproximado, entre los que se encuentran los métodos bayesianos, aportan
modelos teóricos que simulan la capacidad de razonamiento en condiciones de
incertidumbre, cuando no se conoce con absoluta certeza
la verdad o falsedad de un enunciado o hipótesis, e imprecisión, enunciados en
los que se admite un rango de variación.
Entre los métodos de razonamiento aproximado se encuentran
los métodos bayesianos, basados en el conocido teorema de Bayes. Todos
ellos tienen en común la asignación de una probabilidad como medida de
credibilidad de las hipótesis. En este contexto, la inferencia se entiende como
un proceso de actualización de las medidas de credibilidad al conocerse
nuevas evidencias. Mediante la aplicación del Teorema de Bayes se busca
obtener las probabilidades de las hipótesis condicionadas a las evidencias que
se conocen. La diferencia entre los distintos métodos bayesianos, modelos
causales y redes bayesianas, estriba en las hipótesis de independencia
condicional entre hipótesis y evidencias. Dichas relaciones se expresan
comúnmente mediante un grafo a cíclico dirigido.
Ejemplo:
Un ejemplo de inferencia bayesiana es el siguiente:
Durante miles de millones de años, el sol ha salido después de haberse
puesto. El sol se ha puesto esta noche. Hay una probabilidad muy alta de (o
'Yo creo firmemente' o 'es verdad') que el sol va a volver a salir mañana. Existe
una probabilidad muy baja de (o 'yo no creo de ningún modo' o 'es falso') que
el sol no salga mañana.
La inferencia bayesiana usa un estimador numérico del grado de creencia
en una hipótesis aún antes de observar la evidencia y calcula un estimador
numérico del grado de creencia en la hipótesis después de haber observado la
evidencia. La inferencia bayesiana generalmente se basa en grados de creencia, o
probabilidades subjetivas, en el proceso de inducción y no necesariamente declara
proveer un método objetivo de inducción.
Definiciones formales
A pesar de todo, algunos estadísticos bayesianos creen que las
probabilidades pueden tener un valor objetivo y por lo tanto la inferencia bayesiana
puede proveer un método objetivo de inducción. (Ver método científico.) Dada una
nueva evidencia, el teorema de Bayes ajusta las probabilidades de la misma de la
siguiente manera:
Donde
representa una hipótesis, llamada hipótesis nula, que ha sido inferida
antes de que la nueva evidencia, , resultara disponible.
se llama la probabilidad a priori de .
se llama la probabilidad condicional de que se cumpla la
evidencia si la hipótesis es verdadera. Se llama también la función
de verosimilitud cuando se expresa como una función de dado .
se llama la probabilidad marginal de : la probabilidad de observar la
nueva evidencia bajo todas las hipótesis mutuamente excluyentes. Se la
puede calcular como la suma del producto de todas las hipótesis
mutuamente excluyentes por las correspondientes probabilidades
condicionales: .
se llama la probabilidad a posteriori de dado .
El factor representa el impacto que la evidencia tiene en
la creencia en la hipótesis. Si es posible que se observe la evidencia cuando la
hipótesis considerada es verdadera, entonces este factor va a ser grande.
Multiplicando la probabilidad a priori de la hipótesis por este factor va a resultar
en una gran probabilidad a posteriori dada la evidencia. En la inferencia
bayesiana, por lo tanto, el teorema de Bayes mide cuánto la nueva evidencia
es capaz de alterar la creencia en la hipótesis.
Teoría de juegos
La teoría de juegos es un área de la matemática aplicada que
utiliza modelos para estudiar interacciones en estructuras formalizadas de
incentivos (los llamados «juegos») y llevar a cabo procesos de decisión. Sus
investigadores estudian las estrategias óptimas así como el comportamiento
previsto y observado de individuos en juegos. Tipos de interacción
aparentemente distintos pueden, en realidad, presentar estructura de incentivo
similar y, por lo tanto, se puede representar mil veces conjuntamente un mismo
juego.
Desarrollada en sus comienzos como una herramienta para entender el
comportamiento de la economía, la teoría de juegos se usa actualmente en
muchos campos, como en la biología, sociología, psicología y filosofía.
Experimentó un crecimiento sustancial y se formalizó por primera vez a partir
de los trabajos de John von Neumann y Oskar Morgenstern, antes y durante
la Guerra Fría, debido sobre todo a su aplicación a la estrategia militar, en
particular a causa del concepto de destrucción mutua garantizada. Desde los
setenta, la teoría de juegos se ha aplicado a la conducta animal, incluyendo el
desarrollo de las especies por la selección natural. A raíz de juegos como
el dilema del prisionero, en los que el egoísmo generalizado perjudica a los
jugadores, la teoría de juegos ha atraído también la atención de los
investigadores en informática, usándose en inteligencia artificial y cibernética.
Aunque tiene algunos puntos en común con la teoría de la decisión, la
teoría de juegos estudia decisiones realizadas en entornos donde
interaccionan. En otras palabras, estudia la elección de la conducta óptima
cuando los costes y los beneficios de cada opción no están fijados de
antemano, sino que dependen de las elecciones de otros individuos. Un
ejemplo muy conocido de la aplicación de la teoría de juegos a la vida real es
el dilema del prisionero, popularizado por el matemático Albert W. Tucker, el
cual tiene muchas implicaciones para comprender la naturaleza de la
cooperación humana. La teoría psicológica de juegos, que se arraiga en la
escuela psicoanalítica del análisis transaccional, es enteramente distinta.
Ejemplo:
El dilema de Monty Hall es uno en el que el presentador de un programa de
televisión ofrece al concursante elegir un premio que se encuentra tras una de las
tres puertas. Dos de ellas contienen cabras y una de ellas un automóvil. El jugador
elige una puerta, supongamos la primera y el presentador (Monty) abre la puerta
número tres enseñando una cabra. Acto seguido nos ofrece cambiar la puerta
¿qué es mejor teniendo en cuenta que el presentador sabe que hay detrás de
cada puerta?
La respuesta es que es mejor cambiar de puerta. Guiándonos por la
estadística el presentador al abrir una puerta cerrada ha incrementado las
posibilidades que tenemos de llevarnos el premio, pasamos de jugar con 33% de
posibilidades al 66% porque en realidad el presentador aumenta nuestras
posibilidades al 66% si cambiamos de puerta. Si permanecemos con la elegida
nuestras posibilidades se mantienen en un 66%33%. En este enlace podéis
encontrar una explicación en más profundidad de las matemáticas y en este
otro un simulador (en inglés)
La teoría de juegos es una de las partes de la investigación económica
reciente que más atención está atrayendo en los últimos años. Además sus
aplicaciones prácticas han sido utilizadas en la práctica en multitud de ámbitos,
como por ejemplo el del dilema del prisionero para regular y evitar situaciones de
oligopolio. En el cine hemos visto ejemplos del dilema del prisionero en
situaciones como las creadas por el Joker en El Caballero Oscuro.
Método de localización y transporte
Esta técnica es una aplicación de la programación lineal. Para este tipo de
problemas se considera que existe una red de fábricas, almacenes o cualquier
otro tipo de puntos, orígenes o destinos de unos flujos de bienes. La
localización de nuevos puntos en la red afectará a toda ella, provocando
reasignaciones y reajustes dentro del sistema.
El método de transporte permite encontrar la mejor distribución de los flujos
mencionados basándose, normalmente en la optimización de los costes de
transporte (o, alternativamente, del tiempo, la distancia, el beneficio, etc.) En
los problemas de localización, este método puede utilizarse para analizar la
mejor ubicación de un nuevo centro, de varios a la vez y en general para
cualquier reconfiguración de la red.
En cualquier caso, debe ser aplicado a cada una de las alternativas a
considerar para determinar la asignación de flujos óptima.
Para utilizar el método de transporte hay que considerar los siguientes
pasos:
1. Los puntos de origen y la capacidad o abasto por período, para cada uno.
2. Los puntos de destino y la demanda por período para cada uno.
3. El costo de embarque por una unidad desde cada origen hacia cada destino.
Ejemplo:
Se trata de elegir la localización adecuada de un proyecto basado en los
siguientes aspectos:
Los costos totales son: 33.5$ para la localización A, 42.5$ para la B, 37.5$
para C y 40.5$ para D.
Los factores incidentes son: Energía Eléctrica (F1), Agua (F2),
Disponibilidad de Mano de Obra (F3). Se sabe además que F2 tiene el
doble de importancia que F1 y F3.
Las calificaciones dadas sobre 10 de cada factor con respecto a las
Localizaciones son:
Solución:
CALIFICACION DE LOS FACTORES RESPECTO A CADA FACTOR (SOBRE 10)
FSA: 8.25
FSB: 5
FSC: 7.25
FSD: 8.5
A: 0.5 x 0.2849 + 0.5 x 8.25 = 4.2674
B: 0.5 x 0.2246 + 0.5 x 5 = 2.6123
C: 0.5 x 0.2545 + 0.5 x 7.25 = 3.7522
D: 0.5 x 0.2354 + 0.5 x 8.5 = 4.3677.
Técnica de Monte Carlo
El método de Monte Carlo es un método no determinista o estadístico
numérico, usado para aproximar expresiones matemáticas complejas y
costosas de evaluar con exactitud. El método se llamó así en referencia
al Casino de Monte Carlo(Principado de Mónaco) por ser “la capital del juego
de azar”, al ser la ruleta un generador simple de números aleatorios. El nombre
y el desarrollo sistemático de los métodos de Monte Carlo datan
aproximadamente de 1944 y se mejoraron enormemente con el desarrollo de
la computadora.
El uso de los métodos de Monte Carlo como herramienta de
investigación, proviene del trabajo realizado en el desarrollo de la bomba
atómica durante la Segunda Guerra Mundial en el Laboratorio Nacional de Los
Álamos en EE. UU. Este trabajo conllevaba la simulación de problemas
probabilísticos de hidrodinámica concernientes a la difusión de neutrones en el
material de fisión. Esta difusión posee un comportamiento
eminentemente aleatorio. En la actualidad es parte fundamental de los
algoritmos de Raytracing para la generación de imágenes 3D.
En la primera etapa de estas investigaciones, John von
Neumann y Stanislaw Ulam refinaron esta ruleta rusa y los métodos "de
división" de tareas. Sin embargo, el desarrollo sistemático de estas ideas tuvo
que esperar al trabajo de Harris y Herman Kahn en 1948. Aproximadamente en
el mismo año, Enrico Fermi, Nicholas Metrópolis y Ulam obtuvieron
estimadores para los valores característicos de la ecuación de
Schrödinger para la captura de neutrones a nivel nuclear usando este método.
El método de Monte Carlo proporciona soluciones aproximadas a una
gran variedad de problemas matemáticos posibilitando la realización de
experimentos con muestreos de números pseudoaleatorios en una
computadora. El método es aplicable a cualquier tipo de problema, ya
sea estocástico o determinista. A diferencia de los métodos numéricos que se
basan en evaluaciones en N puntos en un espacio M-dimensional para
producir una solución aproximada, el método de Monte Carlo tiene un error
absoluto de la estimación que decrece como en virtud del teorema del
límite central.
Ejemplo:
Si deseamos reproducir, mediante números aleatorios, la tirada sucesiva de una
moneda, debemos previamente asignarle un intervalo de números aleatorios a
CARA y otro a CRUZ, de manera de poder interpretar el resultado de la
simulación. Tales intervalos se asignan en función de las probabilidades de
ocurrencia de cada cara de la moneda. Tenemos así:
CARA Probabilidad: 0,50 Números aleatorios: 0,000 al 0,499
CRUZ Probabilidad: 0,50 Números aleatorios: 0,500 al 0,999
Después, al generar un número aleatorio a partir de la función RAN de la
calculadora, por ejemplo, obtenemos el resultado simulado. Así, si obtenemos el
número aleatorio 0,385, observamos que está incluido en el intervalo asignado a
CARA.
En otras aplicaciones, se asocian intervalos de números aleatorios según las
probabilidades de ocurrencia de los eventos a simular.
Referencias bibliográficas y citas de autor
Dantzig, G. “Programación Lineal: Métodos Simplex”, Disponible:
http://www.programacionlineal.net/simplex.html
Augustin, A. “Qué es la teoría de juegos: Historia”, Disponible:
http://www.elblogsalmon.com/conceptos-de-economia/que-es-la-teoria-de-juegos
Fourier, J. “Programación Lineal: Historia de la programación lineal”, Disponible:
http://es.wikipedia.org/wiki/Programaci%C3%B3n_lineal