Home
Login
Register
Search
Home
Cadenas de Markov (Ejercicios Resueltos)
Cadenas de Markov (Ejercicios Resueltos)
March 30, 2018 | Author: Jeanneth Tatiana Guaman | Category:
Markov Chain
,
Applied Mathematics
,
Physics & Mathematics
,
Mathematics
,
Science
DOWNLOAD
Share
Report this link
Comments
Description
NavigationGestión de Operaciones Blog sobre la Gestión e Investigación de Operaciones con tutoriales y ejercicios resueltos. Cadenas de Markov (Ejercicios Resueltos) por GEO Tutoriales el 31/08/2015 en Cadenas de Markov 1 Un proceso estocástico en tiempo discreto se denomina una Cadena de Markov en tiempo discreto si y solo sí se satisface la Propiedad Markoviana (esto es básicamente que el futuro t=n+1 es independiente del pasado dado el presente t=n) y Propiedad Estacionaria (la probabilidad de pasar de un estado i a un estado j al cabo de una etapa no depende de la etapa n). A continuación presentamos un conjunto de problemas resueltos de Cadenas de Markov que sirvan de complemento para los estudios de nuestros usuarios. Ejercicios Resueltos de Cadenas de Markov Ejercicio N°1: Una empresa esta considerando utilizar Cadenas de Markov para analizar los cambios en las preferencias de los usuarios por tres marcas distintas de un determinado producto. El estudio ha arrojado la siguiente estimación de la matriz de probabilidades de cambiarse de una marca a otra cada mes: Si en la actualidad la participación de mercado es de 45%, 25% y 30%, respectivamente. ¿Cuales serán las participaciones de mercado de cada marca en dos meses más?. 3 en el mes n=0..2 y 3 respectivamente.En primer lugar definimos la variable aleatoria que representa la marca que adquiere un cliente cualquiera en el mes n.59%.2. Ejercicio N°2: ¿Cuál es la cuota de mercado en el largo plazo para cada una de las marcas descritas en el Ejercicio N°1?.1.. Dicha variable aleatoria puede adoptar los valores 1.3.50%.91% y de un 30% a un 25.2. para las marcas 1. de un 25% a un 33. Adicionalmente conocemos cuál es la distribución inicial y la matriz de probabilidades de transición en una etapa tal como se observa a continuación: Luego para conocer la distribución de las participaciones de mercado al cabo de 2 meses (2 etapas) podemos utilizar la fórmula : Se concluye que las cuotas de mercado (participaciones de mercado) en dos meses a cambiado de un 45% a un 40. . La Cadena de Markov del Ejercicio N°1 es irreducible (es decir todos los estados se comunican entre sí) con estados recurrentes positivos y aperiódicos. de acuerdo a la evaluación experimentada por el paciente. que representan las cuotas de mercado en el largo plazo para las marcas 1. cada paciente es clasificado de acuerdo a un estado crítico. Ejercicio N°3: En una Unidad de Cuidados Intensivos en un determinado hospital. Las probabilidades con las cuales cada paciente se mueve de un estado a otro se resumen en la tabla que sigue: . respectivamente.2 y 3. y . Estas clasificaciones son actualizadas cada mañana por un médico internista. Verificado lo anterior podemos obtener la Distribución Límite de una Cadena de Markov en Tiempo Discreto a través del siguiente sistema de ecuaciones: La solución del sistema corresponde a: . Notar que las actuales participaciones de mercado difieren significativamente de las cuotas obtenidas en el largo plazo lo cual sugiere que de alguna manera deban ser corregidas las probabilidades de transición. serio o estable. Lo anterior se concluye luego de la Clasificación de Estados de una Cadena de Markov en Tiempo Discreto. respectivamente. Los valores posibles para dicha variable son C. representando los estados crítico.¿Cuál es la probabilidad que un paciente en estado crítico un día Jueves esté estable el día Sábado?. Sea la variable aleatoria que indica el estado que se encuentra un paciente cualquiera en el hospital en el día n. Un grafo que representa dicho proceso estocástico dada la tabla anterior es: . serio y estable. S y E. Notar que de forma equivalente se pueden utilizar las ecuaciones matriciales : Se comprueba que la probabilidad de pasar del estado crítico al estado estable al cabo de 2 etapas es de un 17%. ¿Cuál es la probabilidad que un paciente que está en estado estable el Lunes experimente alguna complicación y no esté estable nuevamente el Miércoles?. . es decir. la probabilidad de pasar del estado crítico al estado estable al cabo de 2 etapas (días). no obstante.La probabilidad de que un paciente esté en estado crítico el día Jueves y que el día Sábado esté estable. En este caso cambia la distribución inicial respecto al escenario anterior (ahora el paciente está en estado estable). esta dado por: . también resulta de nuestro interés analizar qué sucede al cabo de 2 etapas. serio y estable. La suma de dichas probabilidades es un 66% que da respuesta a la interrogante anterior. Naturalmente se desea estimar la probabilidades de estado en el largo plazo independiente de la distribución inicial. La cadena es irreducible con estados recurrentes positivos aperiódicos. y . que representan la probabilidad de que un individuo se encuentre en estado crítico.Con color verde se marca la probabilidad de que comenzando en un estado estable al cabo de 2 días un paciente se encuentre en estado crítico o serio. El software Interactive Operations Research Tutorial (IORTutorial) permite estimar las probabilidades de largo plazo luego de ingresar la matriz de probabilidades de transición según se muestra a continuación: . ¿Qué porcentaje de la Unidad de Cuidados Intensivos usted diseñaría y equiparía para pacientes en estado crítico?. Utilizando las ecuaciones de estado estable presentadas en el Ejercicio N°2 se obtiene que . respectivamente. . Comentarios: En el Blog hemos desarrollado otros ejercicios resueltos que recomendamos revisar. From 5 votes. entre ellos uno que aborda una Política de Gestión de Inventarios a través de Cadenas de Markov en Tiempo Discreto y Ejemplo de una Cadena de Markov en Tiempo Discreto. sssss Rating: 5.0. Esperamos que este material sea de utilidad para tus estudios y te agradecemos puedas ayudarnos a difundir éste a través de las redes sociales. Adicionalmente en la categoría de contenidos de Cadenas de Markov periódicamente estamos publicando nuevo material didáctico sobre dicha materia. Email ENVIAR Artículos Relacionados: Programación Lineal (Método Gráfico) Distribución Estacionaria de una Cadena de Markov en Tiempo Continuo Preguntas Frecuentes de Cadenas de Markov Cómo Resolver Gráficamente un Modelo de Programación Lineal con TORA Cómo Resolver Gráficamente un Modelo de Programación Lineal con IORTutorial Cadenas de Markov. Mi trabajo se enfoca en un estudio sobre cantidad de trabajadores y juicios presentados. variable aleatoria Problema de Producción y Mezcla de Café en Programación Lineal Ejemplo Resuelto MRP (Plan de Requerimiento de Materiales) Un Comentario para Cadenas de Markov (Ejercicios Resueltos) RESPONDER Sandra Teresa Paterno 25/08/2017 en 4:54 # Me ayudó la explicación. Saludos. distribución estacionaria. distribución inicial. estados. ¿Te intereso este Artículo? Suscríbete a nuestro Newsletter y únete a los otros que reciben periódicamente las novedades del Blog en su Email. IORTutorial. Deja un comentario . Es GRATIS y sólo te tomará unos segundos. matriz de transición. . Nombre (requerido) Email (no será publicado) (requerido) Página Web ENVIAR COMENTARIO ¿Qué Quieres Saber?. Busca en la Base de Datos de Gestión de Operaciones Buscar.. POPULAR ÚLTIMOS TAGS Cómo utilizar una Regresión Lineal para realizar un Pronóstico de Demanda 22/02/2014 Método de Descomposición aplicado para un Pronóstico de Demanda 02/06/2013 Ejemplo del Plan de Requerimientos de Materiales (MRP) . 16/08/2011 Cálculo del MAD y la Señal de Rastreo para un Pronóstico de Demanda 23/07/2011 Cómo hacer un Diagrama de Pareto con Excel 2010 03/03/2017 Busca Artículos por Categoría Cadenas de Markov (7) Congresos y Seminarios (3) Control de Gestión (1) Control Estadístico de Procesos (7) Estadística (7) General (7) Gestión de Calidad (20) Gestión de la Cadena de Suministro (7) Inventarios (23) Líneas de Espera (9) Mantenimiento (1) Plan de Requerimientos de Materiales (MRP) (8) . Email ENVIAR Gestión de Operaciones Me gusta esta página 3745 Me gusta Sé el primero de tus amigos en indicar que le gusta esto. Plan Maestro de la Producción (PMP) (7) Procesos (19) Programación de Trabajos (13) Programación Entera (42) Programación Lineal (84) Programación No Lineal (13) Proyección de Demanda (24) Proyectos (11) Revenue Management (4) Busca Artículos por Etiquetas análisis de sensibilidad asignación capacidad Carta Gantt costo de almacenamiento costo emisión CPM demanda distribución exponencial eoq estadística excel geogebra gestión de calidad gestión de operaciones grafico demanda inventarios investigación de operaciones Líneas de Espera MAD media móvil MRP método simplex Plan Maestro de la Producción (PMP) procesos producción programación de trabajos programación entera programación entera mixta programación lineal programación no lineal proyeccion de demanda Proyectos resolución gráfica ruta crítica series de tiempo solución básica factible solver tiempo de ciclo transporte tutoriales ventas What'sBest! WINQSB Youtube Conéctate con Gestión de Operaciones Suscríbete a nuestro Newsletter y únete a los otros que reciben periódicamente las novedades del Blog en su Email. . Es GRATIS y sólo te tomará unos segundos. Todos los Derechos Reservados Nuestro Sitio esta Alojado en Bluehost .© 2017 Gestión de Operaciones.
Report "Cadenas de Markov (Ejercicios Resueltos)"
×
Please fill this form, we will try to respond as soon as possible.
Your name
Email
Reason
-Select Reason-
Pornographic
Defamatory
Illegal/Unlawful
Spam
Other Terms Of Service Violation
File a copyright complaint
Description
Copyright © 2024 DOKUMEN.SITE Inc.