Programacion Dinamica

March 17, 2018 | Author: Wilber Lopez | Category: Dynamic Programming, Probability, Decision Making, Dynamics (Mechanics), Stochastic


Comments



Description

INSTITUTO TECNOLOGICO SUPERIOR DEALVARADO, VER. MATERIA: Investigación de Operaciones ii SEMESTRE- GRUPO: V-AC PRODUCTO ACADEMICO: Investigación Tema(S): Programación Dinámica Probabilística y Determinística. PRESENTAN: Wilber Lizandro López Ramón DOCENTE: M. en I. A. Christian Román Clara 30/Octubre/2014 Contenido INTRODUCCIÓN ............................................................................................................. 3 DESAROLLO ................................................................................................................... 3 Características de los problemas de programación dinámica ........................................... 3 Ejemplo .......................................................................................................................... 5 El problema de la diligencia. .......................................................................................... 5 Formalización de los cálculos de programación dinámica ............................................... 9 PROGRAMACIÓN DINÁMICA DETERMINÍSTICA (PDD) ....................................... 10 Aplicaciones de programación dinámica determinística ............................................... 10 Modelo del tamaño de la fuerza de trabajo .................................................................... 11 Ejemplo ........................................................................................................................ 11 Modelo de reposición de equipo ................................................................................... 13 Ejemplo ........................................................................................................................ 14 PROGRAMACIÓN DINÁMICA PROBABILÍSTICA (PDP).......................................... 17 Aplicaciones de programación dinámica probabilística ................................................ 17 Un juego aleatorio ........................................................................................................ 17 Ejemplo ........................................................................................................................ 18 CONCLUSIÓN................................................................................................................ 22 BIBLIOGRAFÍA. ............................................................................................................ 22 Wilber Lizandro López Ramón. Página 2 La programación dinámica es una técnica que se puede aplicar para resolver muchos problemas de optimización. la programación dinámica obtiene soluciones con un avance en reversa.INTRODUCCIÓN La PD fue desarrollada por Richard Bellman y G B Dantzing. La programación dinámica (PD) determina la solución óptima de un problema de n variables descomponiéndola en n etapas. En muchos problemas de programación dinámica. Proporciona un procedimiento sistemático para determinar la combinación de decisiones que maximiza la efectividad total (Taha. Sus importantes contribuciones sobre esta técnica cuantitativa de toma de decisiones se publicaron en 1957 en un libro del primer autor denominado “Dynamic Programming” (Princeton University Press. New Jersey) (Domínguez. La principal contribución de la PD es el principio de optimalidad. Inicialmente a la PD se le denominó programación lineal estocástica ó problemas de programación lineal con incertidumbre. un marco de referencia para descomponer el problema en etapas. en ciertos casos no se necesitan decisiones en cada etapa. El problema se puede dividir en etapas que requieren una política de decisión en cada una de ellas. Página 3 . Así. DESAROLLO Características de los problemas de programación dinámica Las características de la programación dinámica se emplean para formular e identificar la estructura de los problemas de este tipo. En contraste para el problema de programación dinámica. 2000). el cual establece que una política óptima consiste de subpolíticas óptimas. la etapa es la cantidad de tiempo que pasa desde el inicio del problema. con cada etapa incluyendo un subproblema de una sola variable. 1. 2004). desde el final de un problema hacia el principio con lo que un problema grande y engorroso se convierte en una serie de problemas más pequeños y más tratables. trata de un enfoque de tipo parcial para la solución de problemas y las ecuaciones específicas que se usan se deben desarrollar para que represente cada situación individual. la programación dinámica se puede definir como una técnica matemática útil que resuelve una serie de decisiones secuenciales. cada una de las cuales afecta las decisiones futuras. A continuación se presentarán estas características básicas que distinguen a los problemas de programación dinámica. La mayor parte de las veces. Princeton. Wilber Lizandro López Ramón. 1991). Así. y esta información es necesario para determinar la política óptima de ahí en adelante. 3. 7. En un problema de PD una serie de decisiones se deben tomar en una secuencia dada. Cada etapa tiene un cierto número de estados asociados a ella. 4. El efecto de la política de decisión en cada etapa es transformar el estado actual en un estado asociado con la siguiente etapa (tal vez de acuerdo a una distribución de probabilidad). En general en los problemas de PD. las decisiones restantes constituirán una política óptima con respecto al estado resultante de la primera decisión. una política óptima para las etapas restantes es independiente de la política adoptada en etapas anteriores. el conocimiento del estado actual del sistema expresa toda la información sobre su comportamiento anterior. el mismo número de variables se considera (Hillier. los problemas de la PD se caracterizan por la dependencia de los resultados derivados de decisiones sobre un número reducido de variables. El procedimiento de solución está diseñado para encontrar una política óptima para el problema completo. Wilber Lizandro López Ramón. una política óptima se debe perseguir. En efecto.2. La decisión actual ni incrementa ni decrementa el número de factores sobre los cuales depende el resultado. Por estado se entiende la información que se necesita en cualquier etapa para tomar una decisión óptima. La política óptima para la última etapa prescribe la política óptima de decisión para cada estado posible en esa etapa. El procedimiento de solución se inicia al encontrar la política óptima para la última etapa. (este es el principio de óptimalidad para la programación dinámica). una receta para las decisiones de la política óptima en cada etapa para cada uno de los estados posibles. 5. los problemas que pueden ser atacados con la PD tienen otras dos propiedades adicionales:  Sólo un número reducido de variables se debe conocer en cualquier etapa con el fin de describir al problema. Página 4 . es decir. Dado el estado actual. Cuando esto se cumple. No importa cuáles fueron los estados y decisiones iniciales. Se dispone de una relación recursiva que indica la política óptima para la etapa dada la política óptima para la etapa (n+1) A pesar de esta característica. 6.  El resultado de una decisión en cualquier etapa altera los valores numéricos de un número reducido de variables relevantes al problema. para la siguiente decisión en la secuencia. partiendo del estado 1 hasta su destino en el estado 10:  Primera etapa: estados 1 y (2.1 se muestran las rutas posibles. 7)  Tercera etapa: estados (5. El costo de la póliza estándar para el viaje en diligencia del estado i al j se muestra en figura 5. Figura 5.7) y (8. En la figura 5. 3. este vendedor no quiso dejar pasar la oportunidad y se propuso determinar la ruta más segura. en donde cada estado se representa por un bloque numerado. Wilber Lizandro López Ramón. 9)  Cuarta etapa: estado (8.6. Este problema se refiere a un vendedor mítico que tuvo que viajar hacia el oeste utilizando como medio de transporte una diligencia. Página 5 . en el último cuarto del siglo XIX.9) y10 Puesto que se ofrecían seguros de vida a los pasajeros de las diligencias. Sistema de caminos para el problema de la diligencia. a través de tierras hostiles. Aún cuando su punto de partida y destino eran fijos. 6. Un problema construido especialmente por el Profesor H M Wagner de la Universidad de Stanford para ilustrar las características e introducir la terminología de la PD es el problema de la diligencia. tenía un número considerable de opciones para elegir qué estados (o territorios que posteriormente se convirtieron en estados) recorrer en su ruta.Ejemplo El problema de la diligencia.1 como una etiqueta en los caminos (flechas) para ir de un estado a otro.4) y (5. 3.1. Como el costo de cada póliza se basaba en una evaluación cuidadosa de la seguridad de ese recorrido. la ruta más segura debía ser aquella con la póliza de seguro de vida más barata. 4)  Segunda etapa: estados (2. De la ilustración se puede observar que el viaje se puede realizar en 4 etapas. 3. 3 y 4 están conectados cada uno con el estado inicial 1 por una sola flecha como se puede apreciar en la figura 5. Entonces gradualmente agranda el problema.4 conectados con el estado inicial 1 Costo mínimo al estado 2 = 2 (desde el estado 1) Costo mínimo al estado 3 = 4 (desde el estado 1) Costo mínimo al estado 4 = 3 (desde el estado 1) CÁLCULOS PARA LA ETAPA 2 Después se avanza a la etapa 2 para determinar los costos mínimos (Acumulativos) para los estados 5. para la etapa 1 se tiene Figura 5. A continuación se explican los detalles involucrados en la implementación de esta filosofía general. CÁLCULOS PARA LA ETAPA 1 Considerando los estados asociados con la etapa 1.5). se ve que existen tres alternativas. para contestar esta pregunta es necesario hacer notar que.2 etapa 1: estados 2.5). el procedimiento poco inteligente de seleccionar el camino más barato ofrecido en cada etapa sucesiva no necesariamente conduce a una decisión óptima global. a saber (2. Por consiguiente. Considerando primero al estado 5.2. Wilber Lizandro López Ramón.Así la pregunta central es: ¿cuál ruta (conjunto de caminos) minimiza el costo total de la póliza?. hasta que se resuelve por completo el problema original. hallando la solución óptima en curso a partir de la anterior. Página 6 . La PD parte de una pequeña porción del problema y encuentra la solución óptima para ese problema más pequeño. La idea es calcular el costo mínimo (acumulativo) de la póliza de seguros entre los dos estados de cada etapa y después utilizar esos costos como datos de entrada para la etapa inmediata siguiente. se puede ver que los estados 2. 3. 6 y 7 como se aprecia en la figura 5. (4. (3.5). Página 7 .Figura 5.4 etapa 2: Estados 5 conectado con los estados 2.3 Etapa 2: estados 5. 3. se tiene: Figura 5. 4. 7 conectados con los estados 2.4) determinan el costo mínimo (acumulativo) para el estado 5 como: Figura 5.5).5 Etapa 2: Estados 6 conectado con los estados 2. 4. 6. 3.6). se tiene: Wilber Lizandro López Ramón. Finalmente para el estado 7 (figura 5. Esta información. 3 y 4 (figura 5. 3. 4. junto con los costos mínimos de los estados 2. De forma similar para el estado 6 (figura 5. 6 Etapa 2: Estados 7 conectados con los estados 2.Figura 5. 9 conectados con los estados 5. 9 Wilber Lizandro López Ramón. 4. Página 8 .7 Figura 5.8 Figura 5. 7. CÁLCULOS PARA LA ETAPA 3 Para los cálculos se toman los datos de la figura 5.8Resumen de cálculos para las diferentes etapas Etapa 4: Estados 10 conectados con los estados 8. CÁLCULOS PARA LA ETAPA 4 Para los cálculos se toman los datos de la figura 5.7 Etapa 3: estados 8. 6. 3. este proviene de haber elegido el estado 6. Si se elige el estado 9. Wilber Lizandro López Ramón. 4. 2.10 Si se elige el estado 8. y garantiza que la solución sea factible para todos los estados. La ecuación indica que las distancias más cortas en la etapa i se debe expresar en función del siguiente nodo . En la terminología de la programación dinámica. i=1. 5. La definición correcta de estado permite considerar por separado cada estado. conecta o vincula las etapas. este proviene de haber elegido el estado 5.10 Por lo tanto existen 3 rutas óptimas a elegir ya que la tres implican el costo mínimo total que es 11.3…n Con la condición inicial .10. a se le llama estado del sistema en la etapa i. 9. la ruta óptima es: 1. 8. 3.El costo mínimo total desde el estado 1 al estado 10 es de 11. la ruta óptima es: 1. 6. 5. de tal modo que se pueda tomar las decisiones para las etapas restantes sin volver a examinar cómo se llegó a las decisiones de las etapas anteriores. De hecho se considera que el estado del sistema en la etapa i es la información que enlaza. 4. 8. el cual a su vez de haber elegido el estado 4 y finalmente el estado 1. Página 9 . Formalización de los cálculos de programación dinámica Se mostrará ahora la forma en la cual se pueden expresar matemáticamente los cálculos recursivos de la PD.  Es decir la ruta óptima es: 1.  Si se elige el estado 4. El estado 10 se puede alcanzar desde los estados 8 y 9.  Si se elige el estado 3. el cual a su vez de haber elegido el estado 4 o el 3. Mientras tanto. cada una de las cuales muestra una nueva idea en la puesta en práctica de la PD. Sin embargo. a medida que se presente cada aplicación. la definición del estado por lo común es la más sutil. A medida que se presente cada aplicación. Wilber Lizandro López Ramón. Con el tiempo. en donde el estado en la siguiente etapa está completamente determinado por el estado y la política de decisión de la etapa actual. sin reexaminar las decisiones que se tomaron en las etapas anteriores? La experiencia indica que la comprensión del concepto de estado se puede mejorar cuestionando la “validez” de la forma que dicta la intuición. resultará útil considerar las siguientes preguntas:  ¿Qué relaciones unen las etapas?  ¿Qué información se necesita para tomar decisiones factibles en la etapa actual.PROGRAMACIÓN DINÁMICA DETERMINÍSTICA (PDD) En este caso se profundiza sobre el enfoque de programación dinámica en los problemas determinísticos. Aplicaciones de programación dinámica determinística Algunas de las aplicaciones de programación dinámica determinística son:  Modelo de Volumen-Carga “Mochila”  Modelo del tamaño de la fuerza de trabajo  Modelo de reposición de equipos  Modelo de inversión  Modelos de inventarios A continuación se presentarán algunas de estas aplicaciones. El caso probabilístico en el que existe una distribución de probabilidad para el valor posible del siguiente estado este se analizara más adelante. el proceso mental propuesto deberá mejorar la comprensión del concepto de estado. es importante prestar atención a los tres elementos básicos de un modelo de PD:  Definición de las etapas  Definición de las políticas o alternativas  Definición de los estados para cada etapa De los tres elementos. Página 10 . Las aplicaciones que se presentan a continuación muestran que la definición de estado varía dependiendo de la situación que se está modelando. se descubrirá que las definiciones que se presentan en las siguientes aplicaciones proporcionan la forma correcta para resolver el problema. Se sugiere intentar una definición de estado diferente que pueda parecer “más lógica” y utilizarla en los cálculos recursivos. el costo de contratar. 7. trabajadores adicionales. . el costo de mantener el exceso de personal. 8. Debido a que las actividades tanto de contratación como de despido incurren en costos adicionales. de acuerdo con los parámetros de costos. y la nueva contratación en cualquiera semana tendrá un costo fijo de $400 más $200 por trabajador y por semana. Sin embargo. Como es la cantidad de trabajadores empleados en la semana i. Página 11 . en esa semana i se puede incurrir en dos costos: .Modelo del tamaño de la fuerza de trabajo En algunos proyectos de construcción. 4 y 6 trabajadores. podría ser más económico dejar que fluctué el tamaño de la fuerza de trabajo. respectivamente. las contrataciones y los despidos se ejercen para mantener un número de empleados que satisfaga las necesidades del proyecto. Los elementos del modelo de programación dinámica se definen como sigue: Ejemplo Un contratista constructor estima que la fuerza de trabajo necesaria durante las próximas 5 semanas será de 5. y que la fuerza de trabajo mínima requiere en la semana i es . ¿cómo se debe mantener el número de empleados a todo lo largo de la vida del proyecto? Supóngase que el proyecto se ejecutara durante el lapso de n semanas. Los datos del problema se resumen como sigue: Wilber Lizandro López Ramón. La mano de obra en exceso que se conserve le costara $300 por trabajador semanalmente. Wilber Lizandro López Ramón. Página 12 . Es así que entonces el problema se reduce a determinación de la antigüedad mas económica de una maquina. Supóngase que se estudia el problema de reposición de la máquina durante un lapso de n años. se debe decidir si mantener la maquina en servicio por un año Wilber Lizandro López Ramón. Al inicio de cada año. su costo de mantenimiento es mayor y su productividad menor. Página 13 .Modelo de reposición de equipo Mientras más tiempo este en servicio una máquina. Cuando la máquina llegue a cierta antigüedad será más económico reemplazarla. más o reemplazarla por una nueva.9 se resume la red que representa el problema. que en la actualidad tiene 3 años. los ingresos y el costos de operación anuales. Al iniciar Wilber Lizandro López Ramón. Sean r(t). y s(t) el valor de recuperación de una maquina con t años de antigüedad. Años con relación a sus utilidades. El costo de una maquina nueva es $100.1. En la figura 5. El costo de adquisición de una máquina nueva en cualquier año es I. Página 14 . Los elementos del modelo de programación dinámica son: Ejemplo Una empresa debe determinar la política óptima. Tabla 5. durante los próximos 4 años (n=4).1 muestra los datos del problema. de reemplazo de una máquina. c(t). costos y valor de rescate La determinación de los valores factibles de la edad de la máquina en cada etapa requiere de algo de ingenio.000. La tabla 5. La empresa establece que toda máquina que tenga 6 años de edad debe reemplazarse. en el ejemplo 5. las antigüedades posibles son 1. s(t).2. y al final del año 4 se desechan las máquinas. Wilber Lizandro López Ramón. al final del horizonte de planeación) los ingresos incluirán el valor de recuperación.1-2 La red indica que al comenzar el año 2. 2 y 5 años. La solución de la red de la figura 5. También. las antigüedades posibles son 1. Si se reemplaza una maquina con 1 año de antigüedad al iniciar los años 2 y 3. Para el comienzo del año 3. 3 y 6 años. Figura 5. Los mismos razonamientos se aplican al iniciar los años 2 o 4. las edades posibles de las maquinas son de 1 4 años. Todos los valores son en miles de $. la máquina actual tendrá 4 años de antigüedad. Página 15 . en caso contrario. la maquina nueva tendrá 1 año de edad. 2.el año 1 se tiene una máquina de 3 años de antigüedad. Al inicia el año 2. si hay reemplazo. al iniciar el año 4.9 equivale a determinar la ruta más larga. y para el comienzo del año 4. Se iniciara la forma tabular para resolver el problema. Se puede reemplazarla (R) o conservarla (k) durante otro año. se debe reemplazar una máquina con 6 años de servicio. s(1) de la máquina de repuesto. con recuperación S. de la máquina reemplazada y el valor de recuperación.9 Representación de la edad de la maquina en función del año de decisión. Nótese que si se reemplaza una máquina en el año 4 (es decir. del inicio del año 1 al final del año 4. su reposición tendrá 1 año de antigüedad al inicio del año siguiente. la decisión óptima para t=3 es reemplazar la máquina. Al iniciar el año 1. la nueva máquina tendrá 1 año al inicial el año 3. Wilber Lizandro López Ramón. El proceso se continúa de esta forma hasta llegar al año 4. Si se reemplaza. Así. la maquina conservada tendrá 2 años. la máquina nueva tendrá 1 año al iniciar el año 2.10 resume el orden en el cual se obtiene la solución óptima.La figura 5. Página 16 . en caso contrario. y t=1 al iniciar el año 2 determina conservarla o reemplazarla. A continuación se presentará una de estas aplicaciones. K. En su lugar existe una distribución de probabilidad para determinar cuál será el siguiente estado. se hace girar una rueda con marcas de n números consecutivos: 1 a n. La programación dinámica probabilística se origina en especial en el tratamiento de modelos estocásticos de inventarios y en los procesos markovianos de decisión. K). Por consiguiente la diferencia entre la programación dinámica probabilística y la programación dinámica determinística (PDD) está en que los estados y los retornos o retribuciones en cada etapa son probabilísticos. en su superficie. se presenta cuando el estado en la siguiente etapa no está determinado por completo por el estado y la política de decisión de la etapa actual. R) y (R.10 Las políticas alternativas óptimas empezando en el año 1 son (R. En este apartado se presentará algunos ejemplos generales. Aplicaciones de programación dinámica probabilística Algunas de las aplicaciones de programación dinámica probabilística son:  Un juego aleatorio  Problema de inversión  Maximización del evento de lograr una meta. esta distribución de probabilidad si queda bien determinada por el estado y la política de decisión en la etapa actual. Un jugador paga $x por el privilegio de hacer girar Wilber Lizandro López Ramón.300 dólares. Página 17 . Sin embargo. R. PROGRAMACIÓN DINÁMICA PROBABILÍSTICA (PDP) La programación dinámica probabilística (PDP) es una técnica matemáticamente útil para la toma de decisiones interrelacionadas. K.Figura 5. K. Un juego aleatorio Es una variación del juego de la ruleta rusa. El costo total es de 55. con objeto de hacer resaltar la naturaleza estocástica de la programación dinámica. La probabilidad de que la rueda se detenga en el número i después de un giro es pi. Se puede formular el problema como un modelo de programación dinámica con las siguientes definiciones: 1. p3 = 0. La recompensa para el jugador es el doble de la cantidad obtenida en el último giro.10. Determine la estrategia óptima para cada una de las cuatro vueltas y encuentre el rendimiento esperado neto asociado.la rueda un máximo de m giros. p4 = 0.25. así que el rendimiento esperado neto. El estado j del sistema en la etapa i es el número que se obtuvo la última vez que se giró la rueda. Rn. Suponiendo que le jugador se repite (hasta con m giros cada vez) una cantidad razonablemente grande de veces. si termina fi  j   max  n   k 1 pk fi 1  k . El jugador paga $5 por un máximo de cuatro vueltas. i = 1.15. …. Página 18 . propone una estrategia optima para el jugador. p5 = 0. el cual está entre 1 y n Sea fi(j) = Ingreso máximo esperado cuando el juego está en la etapa i (el giro) y que el resultado del último giro fue j En este caso se tiene que  2 j. es: Ejemplo Rn  f1  0   x Supongamos que la ruleta está marcada con los números 1 a 5 y que las probabilidades de que se detenga en cada número son p1 = 0. m 2.20. 2. de modo que hay m+1 etapas. p2 = 0. La etapa i corresponde a la i-ésima vuelta de la rueda. si continúa Entonces. En cada etapa hay dos alternativas: se gira la rueda una vez más o se termina el juego 3. Como f1(0) representa el rendimiento esperado de las m vueltas. la ecuación recursiva se puede escribir como sigue: Los cálculos comienzan con fm+1 y terminan con f1.30. Wilber Lizandro López Ramón. 0.{2j.{2j.1x10} = máx.3x2 + 0.25x4 + 0.Etapa 5 f5(j) = 2j Resultado de la vuelta 4 Solución óptima j f5(j) Decisión 1 2 Terminar 2 4 Terminar 3 6 Terminar 4 8 Terminar 5 10 Terminar Etapa 4 f4(j) = máx.{2j.{2j.∑(pkf5(k))} = máx.15x8 + 0.5} Resultado de la vuelta 4 Rendimiento esperado Solución óptima j Terminar Girar f4(j) Decisión 1 2 5 5 Girar 2 4 5 5 Girar 3 6 5 6 Terminar 4 8 5 8 Terminar 5 10 5 10 Terminar Wilber Lizandro López Ramón. Página 19 . p1f5 (1)+ p2f5(2)+ p3f5 (3)+ p4f5 (4)+ p5f5 (5)} = máx.2x6 + 0. 15 8 Terminar 5 10 6.2x6 + 0.8125 Girar Wilber Lizandro López Ramón.15 + 0.{2j.{2j.25x6.0.15 6.15 6.8125} Resultado de la vuelta 3 Rendimiento esperado j Terminar Girar f4(j) Decisión 1 2 6.8125 6.{2j.2x6.6. ∑ (pkf3(k))} = máx.0.8125 Girar 2 4 6.{2j.15 + 0.1x10} = máx.15 10 Terminar Etapa 2 f2(j) = máx. p1f4 (1)+ p2f4(2)+ p3f4 (3)+ p4f4 (4)+ p5f4 (5)} = máx. Solución óptima Página 20 .15x8 + 0. p1f3 (1)+ p2f3(2)+ p3f3 (3)+ p4f3 (4)+ p5f3 (5)} = máx.15} Etapa 3 Resultado de la vuelta 3 Rendimiento esperado Solución óptima j Terminar Girar f4(j) Decisión 1 2 6.3x5 + 0.3x6.15x8 + 0.{2j.f3(j) = máx.15 + 0.{2j.1x10} = máx. ∑ (pkf4(k))} = máx.15 6.8125 6.25x5 + 0.{2j.6.{2j.15 Girar 4 8 6.15 Girar 2 4 6.15 Girar 3 6 6. De otra forma.31} La única opción disponible al iniciar el juego es girar.1x10 = máx.00= $2.8125+ 0. termine el juego Ingreso neto esperado= $7. Gire 2 Continúe si la vuelta 1 produce 1. de otra forma.3 6 6.25x6. termine el juego 3 Continúe si la vuelta 2 produce 1.2x6.8125 + 0.8125 Girar 4 8 6.3x6.8125 6. termine el juego 4 Continúe si la vuelta 3 produce 1 o 2. 2 o 3. ∑ (pkf2(k))} = máx.{2j.31-$5. la solución óptima es: Vuelta número Estrategia óptima 1 Comienza el juego.{2j.{2j.8125 10 Terminar Etapa 1 f1(0) = máx.{2j. de otra forma.2.7.31 Wilber Lizandro López Ramón.8125 + 0. 0. p1f2 (1)+ p2f2(2)+ p3f2 (3)+ p4f2 (4)+ p5f2 (5)} = máx.8125 8 Terminar 5 10 6. Página 21 . De acuerdo con los cuadros anteriores. o 3.15x8 + 0. A sí que.net/elmergabrielchanpech/programacin-dinmica15433493 Elmer Gabriel Chan Pech Wilber Lizandro López Ramón. en especial cuando se trata de problemas grandes. Requiere la formulación de una relación recursiva apropiada para cada problema individual. proporciona grandes ahorros computacionales en comparación con la enumeración exhaustiva para encontrar la mejor combinación de decisiones.SlideShare” es. Página 22 . Nombre de la búsqueda: Como lo encontré: Consultado en: Link: Autor: BIBLIOGRAFÍA. “programación dinámica probabilística” “Programación dinámica .CONCLUSIÓN La programación dinámica (Sea PDD o PDP) es una técnica muy útil para tomar una sucesión de decisiones interrelacionadas.slideshare.net http://es. Sin embargo. Programación Dinámica consiste en solucionar el presente suponiendo que en cada etapa futura siempre se toman las decisiones correctas.slideshare.
Copyright © 2024 DOKUMEN.SITE Inc.