UNIVERSIDAD FERMÍN TORO
FACTULTAD DE CIENCIAS ECONÓMICAS Y SOCIALES
ANÁLISIS DE PROBLEMAS Y TOMA DE DECISIONES
Febrero 2013
MÉTODOS DE INVESTIGACIÓN DE OPERACIONES USADOS
PARA LA TOMA DE DECISIONES
Autora: Yuneidi Albarran
Los modelos deterministas suponen que toda la información necesaria para la toma de una decisión se conoce. Por ejemplo, el número de unidades de producción que deben generarse para maximizar la utilidad, cuando se conoce la disponibilidad de materia prima, y la cantidad de mano de obra requerida para la producción de un bien.
Estos tipos de modelos son excelentes para situaciones en las que existen muchas variables y restricciones. Son útiles cuando muy pocas variables no controladas por el modelo presentan incertidumbre, por lo tanto, son ideales para la toma de decisiones internas de la organización y, en consecuencia, una gran parte de los problemas de uso corriente en las empresas pueden formularse con estas herramientas, además de que existen aplicaciones informáticas poderosas que facilitan la resolución de dichos problemas. Estos modelos también son estructuralmente sencillos y pueden aplicarse a problemas tan dispares como situaciones de producción, logística, planificación de la fuerza de ventas, etcétera.
Se denomina programación lineal a una técnica matemática de optimización, en la que tanto la función objetivo como las restricciones involucran relaciones lineales entre las variables de decisión6. De esta forma el modelo general de PL, es el mismo reseñado por Jensen, con la salvedad de que tanto las restricciones como las variables son lineales.
Los procedimientos utilizados por la programación lineal para elegir y determinar la mejor alternativa posible (la que optimice la función objetivo y que cumpla todas las condiciones estructurales del problema), son esenciales para los modelos deterministas pues constituyen el núcleo fundamental de la optimización restringida. Es decir, representan los cimientos de toda una serie de procedimientos formales aplicables a una gran cantidad de situaciones administrativas y organizacionales como problemas de producción, transportes, logística, asignación de recursos, etcétera.
Además, existen procedimientos de estudio de sensibilidad que son primordiales en
el análisis post-optimización, ya que proporcionan elementos adicionales que permiten
refinar las decisiones óptimas con información acerca de las holguras para restricciones,
precios sombra8 de los recursos, costos reducidos, entre otros (Taha y Curry, 1971).
La programación lineal, cuyos procedimientos incluyen gran parte de los métodos
que se exponen a continuación como el problema de transporte, de asignación, redes,
programación por objetivos, programación entera, etcétera; tiene el inconveniente de que
bajo ciertas circunstancias tanto la función objetivo o las restricciones no son de
naturaleza lineal; por ejemplo, una función de utilidad con rendimientos decrecientes
podría expresarse por medio de una ecuación cuadrática detalle simple por el cual la
programación lineal, no sería aplicable.
Finalmente, la programación lineal forma parte de un tema mucho más extenso de
optimización denominado programación matemática, cuya función objetivo y
restricciones no necesariamente son relaciones lineales de las variables de decisión.
Aún así, los métodos de la programación lineal son bastantes generales y sus aristas
con la programación matemática bastante comunes, en esencia.
El método Simplex es un procedimiento general para resolver problemas de programación lineal. Desarrollado por George Dantzig en 1947, está comprobada su extraordinaria eficiencia, y se usa en forma rutinaria para resolver problemas grandes en computadoras actualmente. También se usan extensiones y variaciones del método Simplex para realizar análisis pos-optimo (que incluye el análisis de sensibilidad) sobre el modelo.
Esencia del Método
Simplex
El método Simplex es un procedimiento algebraico, Sin embargo, sus conceptos fundamentales son geométricos, por lo que la comprensión de estos conceptos geométricos nos proporciona una fuerte intuición sobre cómo opera el método Simplex y porque es tan eficiente.
El método Simplex es un algoritmo iterativo (procedimiento de solución sistemático que repite una serie de pasos fija, llamada iteración, hasta que se obtiene el resultado deseado) con la siguiente estructura:
Preparación para el método Simplex Lo común es que este algoritmo se trabaje en una computadora que solo pueda seguir instrucciones algebraicas. Por lo tanto es necesario traducir el procedimiento geométrico conceptual en un procedimiento algebraico que se pueda usar. El procedimiento algebraico se basa en resolver sistemas de ecuaciones. Entonces el primer paso para preparar el método Simplex es convertir las restricciones funcionales de desigualdad en restricciones de igualdad equivalentes. (las restricciones de no negatividad se dejan como desigualdades porque se manejan por separado). La conversión en igualdades se logra con la introducción de variables de holgura.
Los modelos probabilistas suponen que la información disponible no es
suficiente, no se dispone o puede tenerse con un margen de certeza expresado por
la probabilidad o una distribución de probabilidad. Se les conoce también como
modelos estocásticos. Estos modelos suponen que existen variables con valores
desconocidos que se denominan variables aleatorias, que deben incluirse
necesariamente en el modelo antes de tomar una decisión. Por ejemplo, debemos
elegir cuántas unidades de un bien producir, pero no sabemos cuál será el nivel de
demanda, aunque con los registros históricos disponibles es posible construir una
distribución de probabilidad.
Los modelos probabilistas incorporan la incertidumbre a través de tales
variables aleatorias y son ideales cuando existe un buen número de variables
inciertas y pocas restricciones, por tal razón se utilizan para una gran gama de
situaciones que involucren decisiones estratégicas de la organización con su
medio ambiente externo, ya que las variables generalmente no están totalmente
bajo el control de los tomadores de decisiones.
Una de las limitaciones de los modelos probabilistas es inherente a la
naturaleza de los datos; como muchas de sus variables son inciertas o aleatorias,
las soluciones que emanan de ellas sólo reflejan elecciones que optimizan los
valores esperados de las alternativas de decisión, es decir, la solución óptima es la
que tiene mayores probabilidades de éxito, aunque teóricamente sí podamos
calcular su nivel de certeza.
Área de la matemática aplicada que utiliza modelos
para estudiar interacciones en estructuras
formalizadas de incentivos (los llamados juegos) y
llevar a cabo procesos de decisión. Sus investigadores
estudian las estrategias óptimas así como el
comportamiento previsto y observado de individuos
en juegos. Tipos de interacción aparentemente
distintos pueden, en realidad, presentar estructuras de
incentivos similares y, por lo tanto, se puede
representar mil veces conjuntamente un mismo juego.
Desarrollada en sus comienzos como una herramienta
para entender el comportamiento de la economía, la
teoría de juegos se usa actualmente en muchos
campos, desde la biología a la filosofía. Experimentó
un crecimiento sustancial y se formalizó por primera
vez a partir de los trabajos de John von Neumann y
Oskar Morgenstern, antes y durante la Guerra Fría,
debido sobre todo a su aplicación a la estrategia
militar —en particular a causa del concepto de
destrucción mutua garantizada.
Desde los setenta, la teoría de juegos se ha aplicado a
la conducta animal, incluyendo el desarrollo de las
especies por la selección natural. A raíz de juegos
como el dilema del prisionero, en los que el egoísmo
generalizado perjudica a los jugadores, la teoría de
juegos se ha usado en economia, ciencias políticas,
ética y filosofía. Finalmente, ha atraído también la
atención de los investigadores en informática,
usándose en inteligencia artificial y cibernética.
Aunque tiene algunos puntos en común con la teoría
de la decisión, la teoría de juegos estudia decisiones
realizadas en entornos donde interaccionan. En otras
palabras, estudia la elección de la conducta óptima
cuando los costes y los beneficios de cada opción no
La Teoría Bayesiana se basa en la enumeración de diferentes eventos posibles y la asociación de cada uno con una probabilidad de ocurrencia. Y se aplican Por medio de la cuantificación del impacto de cada programa y la multiplicación por su correspondiente probabilidad de ingeniosidad, se pueden calcular los daños esperados de cada factor de riesgo, es decir que los métodos bayesianos, aportan modelos teóricos que simulan la capacidad de razonamiento y es utilizada en el momento que se quiera crear condiciones de incertidumbre, cuando no se conoce con absoluta certeza la verdad o falsedad de un enunciado o hipótesis, e imprecisión, expuestos en los que se admite un rango de variación Por medio de la cuantificación del impacto de cada evento, y la multiplicación por su correspondiente probabilidad de ocurrencia, se pueden calcular los daños esperados de cada factor de riesgo que al mismo tiempo permiten resolver problemas de toma de decisiones. En síntesis, el razonamiento bayesiano proporciona un enfoque probabilístico a la inferencia. Está basado en la suposición de que las cantidad de interés son gobernadas por distribuciones de probabilidad y que se pueden tomar decisiones óptimas razonando sobre estas probabilidades junto con los datos obtenidos. Este enfoque está siendo utilizado en multitud de campos de investigación, de los que cabe destacar la robótica móvil y la visión computacional
están fijados de antemano, sino que dependen de las elecciones de otros individuos.
Tienen que ver con los métodos determinísticos y
probabilísticos.
El método de transporte visto en programación lineal
puede aplicarse a problemas de localización. Se asume
que se conoce la ubicación de las instalaciones junto
con sus capacidades. La cuestión de interés es
determinar que proporción de la demanda del usuario
será satisfecha desde cada instalación de manera que
se minimice el costo total de producción y
distribución.
El método de Monte Carlo es una técnica
numérica para calcular probabilidades y
otras cantidades relacionadas, utilizando
secuencias de números aleatorios.
Davis, M. D. (1971): Introducción a la teoría de juegos. Alianza Editorial, 1ª edición.
Sandoval Bravo, S. y Coronado Ramírez, S. (s/f). La toma de decisiones en las organizaciones: un
enfoque cuantitativo.
Glover, Fred. (1969). "Gestión de la Decisión y Programación Entera", en La revisión de cuentas, vol. 44, num. 2, pp. 300-303.
Piore, 1979; Piore, Michael. (1979). "Técnicas de investigación cualitativa en la Economía",
trimestrales en Ciencias Administrativas, vol. 24, num. 4, pp. 560-569.
Maanen, 1979 Maanen, John. (1979). "Reclamar Métodos cualitativos para la Investigación
Organizacional", en Science Quarterly Administrativo, vol. 24, num. 4, pp. 520-526.
Taha, Hamdy. y Curry, Guy. (1971). "Derivación clásica de las Condiciones Necesasary y
suficientes para óptimos programas lineales", Investigación en la operación, vol. 19, num. 4, pp.
1045-1050.