TRABAJO_Metodos de Optimizacion Con Restricciones



Comments



Description

República Bolivariana De VenezuelaMinisterio Del Poder Popular Para La Defensa Universidad Nacional Experimental De La Fuerza Armada Asignatura: Optimización No Lineal 6° Semestre "601" - Ingeniería En Sistema MÉTODOS DE OPTIMIZACIÓN CON RESTRICCIONES Profesor Elimar Ruiz Integrantes. Torres Saúl C.I 20.481.182 Simancas José C.I 22.564.596 Mosqueda Gerart C.I 25.219.968 Martínez Juan C.I 18.388.229 Jennifer Ocumare del Tuy, Octubre 2014 Índice Introducción ........................................................................................................................ 3 Programación No-Lineal con Restricciones ........................................................................ 4 Características De Los Problemas No Lineales................................................................ 4 Funciones de Lagrange ................................................................................................... 5 Dirección Factible............................................................................................................ 9 Condiciones necesarias y eficientes.............................................................................. 11 Tipos de Problemas con restricciones .............................................................................. 14 Programación cuadrática .............................................................................................. 14 Programación Separable ............................................................................................... 19 Programación Geométrica ............................................................................................ 22 Funciones de penalización ................................................................................................ 26 Conclusión......................................................................................................................... 29 Bibliografía ........................................................................................................................ 30 2 Introducción En las unidades anteriores se ha venido trabajando con los conceptos, teorías y teoremas de la optimización no lineal, la cual hace contraste con la optimización lineal vista en el semestre anterior en la catedra investigación de operaciones. Todos estos métodos tenían algo en común y es que no poseían restricciones. Sin embargo existe otro método en la programación no-lineal (PNL), estos tienen condiciones que limitan el alcance de la solución factible y son denominados PNL con restricciones. Cuyas características más sobresaliente y comunes son; (1) No precisan para su convergencia que el problema a optimizar sea convexo, aunque si no lo fuese el óptimo local obtenido no garantiza que sea el óptimo global, (2) Combinan los métodos de programación sin restricciones (PSR) con los métodos de programación lineal (PL) de tal manera que en las etapas sucesivas se optimizan los problemas derivados de programación lineal. Por tanto es una mezcla entre ambos métodos implicando explícita o implícitamente un problema de PSR con sucesivas iteraciones que constituyen problemas de PL. Es por ello que esta investigación pretende abarcar temas relevantes en cuanto a PNL con restricciones, de esta forma se hablara de las condiciones necesarias y eficientes y funciones de Lagrange, direcciones factibles, tomando en cuenta algunos ejemplos de problemas con restricciones y por último se tocara el tema de las funciones y métodos de penalización. 3 4 . 2. tienen forma de ecuaciones diferenciales no lineales. La programación no lineal también es conocida con el nombre de programación cuadrática. o ambas. no existe una relación directa y proporcional entre las variables que intervienen.Programación No-Lineal con Restricciones Algunos autores señalan que se presenta un problema de programación no lineal cuando tanto la función objetivo que debe optimizarse. es decir. sino que también señala la orientación específica para lograr el objetivo. en virtud de que la mayor parte de los problemas que resultan contienen ecuaciones cuadráticas o de segundo grado. como las restricciones del problema. esto es posible resolverlo. es decir. Las ventajas más importantes de la programación no lineal son dos: 1. Muchas veces se presentan casos en que se deben maximizar funciones no lineales que presentan restricciones lineales. la función objetivo deja de ser lineal. esta situación se refleja en cualquiera de las restricciones del modelo. en este caso. también son llamados curvilíneos. corresponden a ecuaciones cuyas variables tienen un exponente mayor que 1. ya que el área que delimita las soluciones factibles en un gráfico se presenta en forma de curva. Los problemas de programación no lineal. Características De Los Problemas No Lineales Los problemas no lineales se caracterizan por tener relaciones no lineales. siempre y cuando se admita la hipótesis de que la utilidad marginal no es constante. En algunas ocasiones la distribución óptima del presupuesto excluye cualquiera de los bienes considerados en el presupuesto general. No sólo define el objetivo. La programación no lineal aporta mayor información que la contenida en el análisis marginal. es un procedimiento para encontrar los máximos y mínimos de funciones de varias variables sujetas a restricciones. puede ser cóncavo o convexo. se resuelven de una forma más sencilla que los problemas con restricciones no lineales. La demostración usa derivadas parciales y la regla de la cadena para funciones de varias variables. y encontrar las condiciones para que las derivadas parciales con respecto a las variables independientes de la función sean iguales a cero. contribuciones. Sin embargo un gran número de modelos de optimización imponen a las variables una serie de restricciones que se traducen e n el que mínimo no se busca en todo el espacio sino en un subconjunto d e l espacio definido por las restricciones. también se indicó que estos coeficientes son constantes. es equivalente a buscar los extremos sin restricciones de una nueva función construida como una combinación lineal de la función y las restricciones. el método de los multiplicadores de Lagrange. Es convexo cuando trata de minimizar recursos. Este método reduce el problema restringido con n variables a uno sin restricciones de n + k variables. una para cada restricción. son llamadas multiplicadores de Lagrange. Pueden ser utilizados para estudiar el efecto de variación pequeño en las restricciones sobre el valor óptimo de f.La función objetivo en la programación no lineal. y cuyas ecuaciones pueden ser resueltas más fácilmente. donde los coeficientes de las restricciones son los multiplicadores. etc. Es cóncavo cuando se trata de maximizar utilidades. El método dice que buscar los extremos condicionados de una función con k restricciones. 5 . Estas nuevas variables escalares desconocidas. donde k es igual al número de restricciones. Se trata de extraer una función implícita de las restricciones. Funciones de Lagrange En los problemas de optimización. Los problemas que contienen restricciones lineales. costos. Estas propiedades pueden ser utilizadas para resolver los problemas restringidos por restricciones de igualdad. etc. Esto significa esto significa que la optimización de ( ) sujeto a ( ) es equivalente a la optimización de la función de LaGrange se establecerán sin demostración. por tanto. Este procedimiento puede desarrollarse formalmente como sigue. Sin embargo. Defínase: 6 .Sea Por consiguiente. la función de LaGrange puede utilizarse directamente para generar las condiciones necesarias. sea ( La función ) ( ) ( ) se llama la función de LaGrange y los parámetros . ya que la expresión para necesarias para puntos se calcula tal que . Esta ecuación satisface las condiciones estacionarios. multiplicadores deLaGrange. Lo anterior da ) Las ecuaciones resultantes junto con las ecuaciones de restricciones proporcionan los valores factibles de y que satisfacen las condiciones necesarias para puntos estacionarios. El procedimiento anterior define el método conocido como LaGrange para identificar los puntos estacionarios de problemas de optimización con restricciones de igualdad. Las ecuaciones: y Proporcionan las mismas condiciones necesarias dadas anteriormente y. se obtiene una forma más conveniente para presentar estas ecuaciones tomando sus derivadas parciales con respecto a todas las ( . entonces cada una de las ( ) raíces del polinomio. En otras palabras. Dado el punto estacionario ( la matriz hessiana en la frontera ). Un punto máximo si. comenzando con el menor principal del determinante de orden ( ). los últimos ( ) menores principales del determinante de tienen el signo de ( ) . un punto estacionario puede ser un punto extremo sin satisfacer las condiciones anteriores. pero no necesarias. para la función de LaGrange ( evaluada en ( ). para toda i y j se conoce como matriz hessiana en la frontera. La desventaja en este caso es que este procedimiento es computacionalmente infactible para la mayoría de los propósitos prácticos. 7 . Existen otras condiciones que son tanto necesarias como suficientes para identificar puntos extremos. Las condiciones anteriores son suficientes para identificar un punto extermo. entonces )y es: 1. comenzado con el menor principal del determinante de orden ( ). donde P y Q son como se es un parámetro desconocido. los últimos ( ) menores principales del determinante de forman una configuración de signos alternos comenzando con ( ) . Considere el determinante | |.( | ) | ( ) ( ) Donde ( ) ( La matriz ( ) ) ( ‖ y ) ‖ . Defina: ( ) Evaluado en el punto estacionario ( definieron antes y ). Un punto mínimo si. 2. ( ( ) ) ( ( ) ) Esto muestra que estos coeficientes son independientes de la selección del vector dependiente en el método jacobiano. Para mostrar que el punto dado es mínimo.| | Deben ser. 2. es un punto mínimo. 1. Negativas si Positivas si es un punto máximo. considere ( ) 8 . 1 La función de Lagrange es: ( ) ( ) ( ) Esto proporciona las siguientes condiciones necesarias: ( ) ( ) La solución para estas ecuaciones simultáneas proporciona. Ejemplo. y (2) el valor objetivo en es mejor que el valor objetivo en . Ya que la factibilidad primal es mantenida durante el proceso de optimización. Dado un punto factible para . Por consiguiente. La metodología de los métodos de direcciones factibles es. Después que tal dirección es determinada. se determina una dirección tal que suficientemente pequeño. Sin embargo. más cercano a un punto óptimo. las siguientes dos propiedades son verdaderas: (1) es factible. Esto se resultante satisface todas las restricciones activas en forma de ecuación. Métodos de este tipo consisten en como converger a soluciones que cumplen las condiciones de Karush-Kuhn-Tucker o algunas veces a puntos que cumplen con las condiciones de Fritz-John. Dirección Factible Esta clase de métodos resuelven problemas de programación no lineal moviéndose en cada iteración de n punto factible a un punto factible mejorado. este procedimiento llega a ser muy tedioso computacionalmente cuando aumenta el numero de restricciones.Ya que y . la . es es un punto mínimo. se deduce que necesario verificar el determinante de . Estas conduce a un nuevo punto y el proceso es repetido. Un método que es conveniente algunas veces para resolver ecuaciones resultantes a partir de las condiciones necesarias es seleccionar valores numéricos sucesivos de y luego resolver las ecuaciones dadas para determinar repite hasta que para algunos valores de . Método de Zoutendijk 9 . estos procedimientos son con frecuencia referidos como "métodos primales". un problema de optimización uní-dimensional que debe ser resuelto es determinar hasta donde continuar a lo largo de . 10 . continuar con el paso 2. la cual tiene dos propiedades: a) Factibilidad: Consiste en que un avance en esa dirección no viola ninguna restricción b) Utilidad: Un avance en esa dirección mejora el valor de la función objetivo. es un punto que cumple con las condiciones de Karush-Kuhn-Tucker. El método de Zoutendijk es aplicable para resolver el problema de optimización Minimizar f(x) A: matriz m x n Sujeta a b : m-vector Ax < b E: matriz 1 x n e : I-vector Ex . Un vector d diferente de cero es llamado una dirección factible en si existe un tal que para todo ( ).Definición: Considere el problema de minimizar f(x) sujeto a donde y S es un conjunto no vacío en . De otra manera. Procedimiento Paso 0: Encontrar una solución factible inicial k 1 seguir al próximo paso. d es llamada una dirección mejorada en ) ( ) tal que ( para todo ( si existe un ). Paso1: Dado supóngase ( ) ( ) tal que óptima al siguiente problema. Sea una solución ( ) Sujeta a Si ( ) para r. Paso 2: Sea una solución óptima a el siguiente problema de búsqueda de línea. Sea son descompuestas en . De otra manera.e El método encuentra en cada iteración una dirección factible y un tamaño de avance (longitud de paso) en esa dirección. Minimizar que con . tal como en programación no restringida. Problema general de optimización: Consideremos el siguiente problema general: . son las condiciones necesarias y suficientes para que la solución de un problema de programación matemática sea óptima. .Minimizar ( ) Sujeto a Donde Con Sea +1 . Es una generalización del método de los multiplicadores de Lagrange. Condiciones necesarias y eficientes Las Condiciones de Karush-Kuhn-Tucker . 11 . identificar el nuevo conjunto de restricciones activas en y obtener los nuevos valores de . Reemplazar k por k + 1 y repetir el paso l. respectivamente. supongamos que son continuamente diferenciables en el punto . entonces existe constantes y . Tucker. Además. tales que Condiciones de regularidad o cualificación de las restricciones: En la condición necesaria anterior. Karush. por ejemplo.Donde es la función objetivo a minimizar. Kuhn y Albert W. a minimizar. Este caso se denomina degenerado o anormal. 12 . es y las funciones de restricción son y . aunque fueron renombradas tras un artículo en una conferencia de Harold W. Las condiciones necesarias para problemas con restricciones de desigualdad fueron publicadas por primera vez en la tesis de máster de W. Condiciones necesarias de primer orden Supongamos que la función objetivo. Si es un mínimo local. La condición necesaria no tiene en cuenta las propiedades de la función sino la geometría de las restricciones. el multiplicador dual puede ser igual a cero. restricciones de desigualdad y son las son las restricciones de igualdad. con y el número de restricciones de desigualdad e igualdad. si es linealmente dependiente positivo en en el entorno de si entonces es linealmente dependiente positivo . aunque CRMF no es equivalente a CRRC. Cualificación de la restricción de dependencia lineal constante positiva (DLCP): para cada subconjunto de restricciones activas de desigualdad y de gradientes de las restricciones de igualdad. Estas incluyen: Cualificación de la restricción de independencia lineal (CRIL): los gradientes de las restricciones activas de desigualdad y los gradientes de las restricciones de igualdad son linealmente independientes en  .Existen una serie de condiciones de regularidad que aseguran que la solución no es degenerada es decir  . se prefiere cualificación de restricciones más débiles ya que proporcionan condiciones de optimalizad más fuertes. CRIL=>CRRC=>DLCP. En la práctica. Cualificación de la restricción de Mangasarian-Fromowitz (CRMF): los gradientes de las restricciones activas de desigualdad y los gradientes de las restricciones de igualdad son linealmente independientes positivos en . Condiciones suficientes 13 .  Cualificación de la restricción de rango constante (CRRC): para cada subconjunto de las restricciones activas de desigualdad y los gradientes de las restricciones de igualdad. el rango en el entorno de  es constante. existe un punto tal que para todo Puede verse que CRIL=>CRMF=>DLCP.( es linealmente dependiente positivo existe distintos de cero tal que )  Condición de Slater para un problema únicamente con restricciones de desigualdad. Si existen constantes y tales que Entonces el punto es un mínimo global. Tipos de Problemas con restricciones Programación cuadrática La importancia de la programación cuadrática recae en que. requiere ser minimizada.Sea la función objetivo y las funciones de restricción sean funciones convexas y afinidad. La programación cuadrática trabaja con una clase especial de problemas en el que una función cuadrática de variables de decisión sujeta a restricciones lineales de desigualdad requiere ser optimizada. en notación matricial. y sea un punto sean las funciones de . que nos serán útiles para encontrar su solución. ya que a partir de ésta podemos determinar ciertas características del problema. 14 . es una función de la forma ( ) Es de gran importancia identificar o poder definir la característica de la matriz Hessiana. en nuestro caso. como es un caso especial de la programación no lineal. Una función cuadrática. se utiliza como una función modelo para aproximar funciones no lineales a través de modelos locales. en el cual la función objetivo a ser minimizada. minimizar la función cuadrática  Problemas cuadráticos de minimización sujetos a restricciones de ( ) sujeta a igualdad.Existen diferentes tipos de problemas de programación cuadrática. requieren ( ) sobre el espacio completo. y cuando es usada como 15 .  Problemas cuadráticos no convexos. las funciones cuadráticas fueron prominentes porque proveían modelos locales simples para funciones no lineales generales. Son cuales quiera de los mencionados arriba.  Problemas cuadráticos convexos.  Problemas de complementariedad lineal. en el cual la función objetivo a ser minimizada. Históricamente. Requieren minimizar la función objetivo restricciones lineales de desigualdad ( ) sujeta a . trabaja con problemas cuadráticos convexos sujetos a restricciones lineales de desigualdad. El “Algoritmo de Espacio Rango para Programación Cuadrática” aquí implementado.  Problemas cuadráticos de minimización sujetos a restricciones lineales de desigualdad. Una función cuadrática. Son cuales quiera de los mencionados arriba. Son problemas cuadráticos en los que las restricciones son restricciones de baja conservación sobre una red pura o generalizada. también puede contener restricciones de igualdad. requieren minimizar la función objetivo restricciones lineales de igualdad . los cuales se pueden clasificar en:  Problemas cuadráticos de minimización sin restricciones. es la función no lineal más simple. ( ) es convexa. ( ) es no convexa. en el cual las variables están formadas en varios pares llamados pares complementarios. Son problemas especiales con un sistema de ecuaciones en variables no negativas.  Problemas de optimización de redes cuadráticas. lo que una aproximación lineal no puede. cuyas restricciones son lineales y cuya función objetivo es la suma de términos de la forma (en la cual cada termino tiene un grado de 2. todo punto KKT o mínimo local. Dichos problemas se resuelven por el método de WOLFE. incremento de la inflación. es un mínimo global. A continuación: 16 . usando modelos de programación cuadrática para determinar la selección de estrategias óptimas de inversión. tenemos al método de Newton y el método de gradiente conjugado. Entre los métodos más destacados. En los impuestos. por ejemplo. o 0) es un problema de programación cuadrática. mínimos globales. puntos estacionarios o de KKT. La programación cuadrática tiene aplicaciones muy importantes. Otra aplicación importante. etc. Estos modelos involucran el uso de programación cuadrática. la programación cuadrática juega un papel muy importante en el análisis de políticas de impuestos. se pueden realizar análisis. 1. es en la que los economistas utilizan modelos de equilibrio para analizar expectativas de cambio en condiciones económicas. predicción de precios. (son los que satisfacen las condiciones de KKT del problema). En problemas convexos de programación cuadrática. El uso de aproximaciones cuadráticas para resolver problemas con funciones no lineales generales se remonta mucho tiempo atrás.una aproximación para una función no lineal general. en el área financiera. esta puede capturar la información importante de la curvatura. Consideramos un problema de programación no lineal cuya función objetivo es la suma de términos de la forma termino es el grado de este Un problema de programación no lineal. Para la programación cuadrática se pueden encontrar mínimos locales. si es una matriz nula se convierte en un problema de programación lineal. de recursos con es una matriz de para toda .Tucker que deben existir en un óptimo global. El método de Wolfe sigue con la reescritura del problema original como un problema de programación lineal con holguras complementarias. implica que es una función estrictamente convexa y por lo tanto el mínimo si existe es global. El problema de optimización anterior tiene restricciones lineales. C es un vector componentes. definida. éste último problema es equivalente al problema original. El problema de programación lineal a resolver será de ( ) variables. excepto componentes.Se define un problema de programación cuadrática como: Con sus restricciones Donde de precios con (vector en con componentes continuas). Ejemplo: Resolver el siguiente problema de programación cuadrática por el método de Wolfe: 17 . b es el vector coeficientes ceros. si es negativa definida. restricciones lineales y restricciones de holgura complementaria. se verifican las condiciones necesarias y suficientes de Karush – Kuhn. Como es positiva definida. es decir. se le aplican los multiplicadores de Lagrange. es estrictamente cóncava y si el máximo existe es global. tecnológicos y 0 es un vector con . A continuación se escribe el problema en notación algebraica. simétrica y positiva es una matriz de . Con sus restricciones: Lagrange tenemos: ( ) ( ( ) ( ) ( ) ) Las primeras derivadas parciales son: El problema de programación lineal equivalente al original de acuerdo al método de Wolfe es: Sujeto a: Con las siguientes restricciones de holgura complementaria: 18 . es ) Un caso especial de . y de salida a .Utilizando los métodos simplex se tiene que la solución básica inicial es: En la primera iteración entra ( ) y sale . el punto extremo después de interactuar es: La última iteración ( ) debe entrar pero no puede porque positivo. el siguiente elemento a entrar a la base es es el cual reemplazara a Luego de recalcular el punto extremo es: La solución que corresponde al óptimo es: Programación Separable Una función suma de decir. El punto extremo luego de recalcular es: En la tercera iteración no pueden entrar a la base el simplex toma como siguiente candidato a son positivas. ( ( ) es separable si se puede expresar como la funciones de una sola variable ) ( ) ( ) 19 ( ) ( ( ) ( ) . en estos casos se modifica de alguna manera el procedimiento de búsqueda del gradiente para evitar que la trayectoria de búsqueda penetre la frontera de restricción. cuyas soluciones óptimas convergen a la solución óptima del problema original. Con sus restricciones 20 .programación separable ocurre cuando las funciones ( ) son convexas . en general los algoritmos conocidos se pueden clasificar así: 1. incluye métodos de aproximación lineal y aproximación cuadrática. No existe un algoritmo único para solucionar problemas de programación convexa. A continuación resolvemos un problema de programación separable aplicando el método de la base restringida. 3. Algoritmos secuenciales no restringidos. Algoritmos de Aproximación Secuencial. Algoritmos de gradiente. estos algoritmos convierten el problema de optimización restringida original en una sucesión de problemas de optimización no restringida. estos algoritmos sustituyen la función objetivo no lineal por una sucesión de aproximaciones lineales o cuadráticas. Ejemplo. Para problemas de optimización linealmente restringidos. incluye los métodos de función de penalización y de función barrera. estas aproximaciones permiten la aplicación repetida de los algoritmos de programación lineal o cuadrática. resultando así un espacio convexo de solución. 2. además la función ( ) es convexa en caso de minimización y cóncava en caso de maximización. El método de aproximación nos sugiere que las variables separables son: 1 0 0 0 2 1 1 2 3 2 16 8 4 3 81 18 Luego: ( ) ( ) ( ) ( ( ) ) ( ( ) ) ( ( ) ) ( ) ( ) Entonces el problema original por aproximación se convierte en: La tabla simple inicial queda de la siguiente forma: 21 . La solución óptima por el Simplex a este problema equivalente es: Luego el óptimo en términos de es : Programación Geométrica La Programación geométrica soluciona un caso especial de problemas de Programación No lineal. Este método resuelve al considerar un problema dual asociando los siguientes dos tipos de Programación No lineal:  Problemas geométricos no restringidos del tipo ∑  Problemas restringidos del tipo ∑ 22 .Donde S1 es una variable de holgura (relleno). por esta razón y porque todas las . Peterson y Zener. las funciones toman la forma de un polinomio. La Programación Geométrica fue diseñada por Duffin.Con sus restricciones Donde es real. toda finitas.geométrica) : ( ) ( ) ( ) ∑ ( ) ∑ El método de solución consiste en calcular las primeras derivadas parciales de la función objetivo se obtiene la ecuación: Condición de normalidad De las primeras derivadas parciales iguales a cero se escribe la relación: Condicion de rotogonalidad 23 . se denominan posinomiales. La lógica de la Programación Geométrica se basa en la desigualdad de Cauchy (desigualdad de media aritmética . los exponentes para supone para ambos casos son no tienen restricciones de signo . excepto que los exponentes pueden ser negativos. h: costo por almacenamiento por unidad anual. los costos totales asociados al producto y su almacenamiento se pueden expresar CT = CCI + CHP + VC donde Dónde: CT: costo total. se dice que el problema tiene cero grados de dificultad.P: constantes. a: costo de hacer un pedido. Generalmente.Donde aij son los coeficientes positivos. se debe decidir qué cantidad del artículo conviene almacenar periódicamente. Cuando n = m + 1. Ejemplo: 1. es decir. CCI: costo cargado al inventario. el número de términos determina el número de factores de peso y el número de variables independientes señala el número de ecuaciones.(m + 1)> 0. es un problema que no se puede resolver mediante Programación Geométrica. VC: valor de compra. Cuando n . m es el número de variables y n el número de términos. CHP: costo total de pedidos. Encontrar la cantidad económica de pedido de un producto. d: consumo promedio del año. k. Finalmente se resuelven los sistemas de ecuaciones simultáneas planteadas y se obtiene la solución del problema. La función objetivo tiene la siguiente formula general: 24 . Q: cantidad económica del pedido. métodos geométricos. búsqueda con resolución desconocida. métodos lógicos. método de Bolzano. procedimientos de aproximación estocásticos. búsqueda simultánea: n experimentos. resolución. búsqueda secuencial. búsqueda en forma de malla.De tal modo que al resolver el anterior sistema de ecuaciones simultáneas llegamos a que 1 = 2 y la variable Q* debe ser tal que haga que los dos términos de la función objetivo sean iguales: Aporte de los métodos de solución para problemas de Programación No lineal ya mencionados algunos de los conocidos son: • Técnicas de búsqueda unidimensional: Minimax. búsqueda por bloques. Búsqueda simultánea: dos experimentos. búsqueda dicotómica. • Técnicas de búsqueda multidimensional: algunos modelos son: Eliminación multivariable. entre otros. búsqueda en bloques pares . búsqueda de sección áurea . búsqueda aleatoria. método de búsqueda patrón: Hooke – Jeeves. búsqueda de Fibonacci inverso y búsqueda mediante bloques impares. búsqueda de Fibonacci. distinguibilidad . escalamiento. método de interpolación 25 . método del ascenso acelerado. Este método radica en la introducción de la variable artificial que modifica a la función objetivo. deberán introducirse variables artificiales ( ). método de Newton – Raphson. método de Smith. es recomendable utilizar el Método de Penalización. método de Fletcher – Reeves. Las restricciones e inclusive las variables de holgura son presentadas como una igualdad o no-negativas. Big M Method en la literatura inglesa. Se tiene que: Optimizar Z = Cx Sujeto a : Ax b y/o Ax = b 26 . que será a su vez multiplicada por una cantidad M. método de Broyden – Fletcher.cuadrática de Powell. que no se encuentra expresado en forma canónica. que describe un valor muy grande con signo negativo cuando se quiera maximizar y en caso de minimizar el valor arbitrario será positivo y muy elevado. o la Gran M. A este método se le conoce como Método de la M Grande. Existen varias maneras de darle solución al problema planteado. Funciones de penalización Si se tiene un problema de Programación Lineal. método de Davidon – Fletcher – Powell. una de ellas es el Método de Penalización. Para lo cual debe seguirse un método que permita convertir en cero a la variable artificial para obtener una solución factible. que amplía el espacio de soluciones factibles. que harán posible resolver el problema. teniendo en cuenta que: 27 . por las restricciones inconsistentes del problema.] tenemos que para minimizar la función objetivo: Mín Z= C x + M S. Método de la M Grande o de Penalización Los pasos a seguir son: 1. M 0.Tal que Ax = b puede decirse como [ b. El Método Simplex trata en cada iteración mejorar la función objetivo. Expresar el problema en forma estándar. el vector M.a Ax+Y–M=b Se obtiene la solución óptima del problema sí y solo sí el vector M es igual con cero. saldrá de la base por completo. y haber llegado a la solución óptima. Y 0. Si se busca maximizar Z: Max Z = C x – M S. Si el problema original no tiene restricciones inconsistentes. o sea M = 0.a Ax–Y+M=b x 0. entonces el problema original no tiene solución. En caso de haber utilizado el Método de la M. pero el vector M > 0. se habrá retornado al problema original y se obtendrá por el Método Simplex la solución óptima. o los valores de la extrema derecha de la tabla deben ser también no negativos. Continuar con el algoritmo del Método Simplex descrito anteriormente. ó (+M) en el de minimizar . haciendo cero el valor de la variable artificial 3. Introducir las variables artificiales ( característica ( II. Mediante el uso de las operaciones de renglón elementales. Recordar que: Mín Z = max H max H = min (-Z) 1.  Las variables x estarán expresadas en forma no-negativa  La optimización de la función objetivo. tomando en cuenta las variables de holgura y de exceso donde sean requeridas. ) en las restricciones que tengan la b. Asignar la penalización para cada unidad de las variables en la función objetivo designada como (–M) para problemas de maximización y (+M) para minimización. con excepción de la restricción de no-negatividad. 28 . Todas las restricciones son ecuaciones. Reescribir el problema. = b ). Haciendo igualdades las desigualdades. Elaborar la primera tabla con todo lo anterior señalado. 2. De tal forma que: I.  El valor de . a fin de expresar el coeficiente ( –M) en caso de maximizar. puede ser de maximización o minimización. con M>0. 1. La optimización numérica de funciones no lineales requiere la utilización de técnicas de optimización eficiente y robusta. y algunos han sido desarrollado para algunas clases especiales de estos. La eficiencia es importante porque la solución de estos problemas se lleva a cabo por un procedimiento iterativo. La optimización clásica es el uso de cálculo diferencial que sirve como una base para programación no lineal en donde está incluido los máximos y mínimos para funciones restringidas y no restringidas de un problema. Problemas no restringidos. La robustez habilidad para encontrar la solución es una propiedad deseable dado que el comportamiento de las funciones no lineales puede ser impredecible: 29 . Y Se puede concluir del planteamiento de programación no lineal que sus aplicaciones se resuelven mediante la utilización de algoritmos. su tarea es encontrar o definir un máximo o un mínimo de una función. donde usa diferentes métodos por ejemplo el de Lagrange donde sus funciones son de varias variables sujetas a restricciones.Conclusión La programación no lineal es un proceso matemático que se realiza cuando una función dada no cumple con algunos requisitos para realizarlo con programación lineal. Vol.. R.. pp. Flujo de Potencia Óptimo con Programación Cuadrática Secuencial (1 ed. Vol. Vol.). Nonlinear Programming: Analysis and Methods. Avriel. Dover Publishing. Investigación de operaciones (7 ed. Pearson. necesitando mucho tiempo de cálculo. Afortunadamente se posee mucha experiencia utilizando métodos de optimización numérica lo que permite contar con buenos algoritmos y conocer sus limitaciones y posibilidades. (2010). (1995). pp. pp.). (2007). UNANL. Palma. Tesis en Programación No Lineal (1 ed. 1. R.En algunas regiones el avance hacia el óptimo puede ser muy lento. H. Cantu. Bibliografía A. 30 .. Taha.). Nuevo León. 1. Santiago de Chile. Mordecai (2003). Universidad de Chile. 1.
Copyright © 2024 DOKUMEN.SITE Inc.