Cadenas DE Markov william -yefferson PDF

Title Cadenas DE Markov william -yefferson
Author Yefferson Javier
Course Mecanica de fluidos
Institution Instituto Universitario de La Paz
Pages 10
File Size 441.7 KB
File Type PDF
Total Downloads 84
Total Views 154

Summary

Download Cadenas DE Markov william -yefferson PDF


Description

UNIVERSIDAD INDUSTRIAL DE SANTANDER Escuela de Estudios Industriales y Empresariales

USO DE CADENAS DE MARKOV PARA DETERMINAR EL COMPORTAMIENTO DE UN PROCESO DE VOTACION Jerson Saluhect Correa Hita 2053452

Mayra Alejandra Díaz Gómez 2051964

Bucaramanga 30 de enero de 2010

RESUMEN

En el presente artículo se expone un estudio detallado sobre Cadenas de Markov como campo de acción de la investigación de operaciones cuyo objetivo y finalidad es encontrar la solución óptima para un determinado problema. En este caso presentamos un modelo probabilístico que contribuye al estudio del comportamiento de un proceso de votación electoral basándose en elecciones anteriores y en la intención de voto actual de cierta comunidad. El modelo utilizado corresponde a una Cadena de Markov dado que permite analizar la evolución de un sistema a través de periodos sucesivos, en donde se analizan sus probabilidades de cambio. Se muestran los detalles de la metodología adoptada y los principales resultados alcanzados en la aplicación del modelo empleado.

Palabras clave: Cadenas de Markov, modelo probabilístico, proceso de votación.

UNIVERSIDAD INDUSTRIAL DE SANTANDER Escuela de Estudios Industriales y Empresariales

OBJETIVOS



Aplicar la teoría fundamental de cadenas de Markov para determinar el comportamiento de un sistema de votación a futuro.



Destacar la importancia del uso de herramientas de Cadenas de Markov en todo proceso que se comporte como tal, a fin de mejorar los distintos procedimientos, logrando la optimización de los mismos.



Indagar en otros métodos y consideraciones a tomar al momento de realizar el Proceso Markoviano.

MARCO TEÓRICO El modelo empleado que se presenta en este trabajo corresponde a una Cadena de Markov, comúnmente utilizada en el ámbito de la Investigación de Operaciones para describir y predecir el comportamiento de ciertos sistemas bajo condiciones de incertidumbre a través del tiempo. La utilización de estos modelos ha resultado adecuada para modelar dinámica de poblaciones, sistemas de espera, control de inventarios, mantenimiento y reemplazo de equipos y en apoyo a la toma de decisiones en administración, ingeniería y medicina, entre otros. Un modelo de Markov consiste en un conjunto de estados discretos. Este conjunto es exhaustivo y describe todos los posibles estados donde el sistema puede estar. La transición del estado i a j ocurre con una probabilidad pij.

Análisis según el artículo: son Procesos Estocásticos que son útiles al estudiar la evolución de ciertos sistemas en ensayos repetidos. Los ensayos son frecuentemente periodos sucesivos en los que no se puede determinar certidumbre del estado o resultado del sistema en cualquier lapso o intervalo de tiempo determinado.

UNIVERSIDAD INDUSTRIAL DE SANTANDER Escuela de Estudios Industriales y Empresariales

La Condición de Markov: Si P[Sj(k) / Sa(k-1), Sb(k-2), Sc(k-3).....] = P[Sj(k) / Sa(k-1)] para todo k, j, a, b, c entonces el sistema es un estado discreto de discretas transiciones de procesos de Markov. La implicación de esta condición es que la historia anterior del sistema a su llegada en (a) no tiene efecto en la transición a (j). En otras palabras, el sistema no tiene memoria. Probabilidades de Transición: Para una cadena de Markov, se definen las probabilidades de transición como: pij = P[Sj(k) / Si(k-1)]

10 tal que Pijn >0, i, j=0,1,2....m. Entonces, Pijn = k=0 (Pikn * Pkj), luego j = k=0 (k * Pkj) y como j=0 Pijn = 1, entonces j=0 j =1. Por lo tanto si todos los estados de una Cadena de Markov son recurrentes, aperiódicos y se comunican entre sí, se dice que la cadena es Ergódica. Finalmente se presentan unos útiles factores de las cadenas de Markov:  Cada cadena de Markov debe tener al menos una cadena recurrente.

UNIVERSIDAD INDUSTRIAL DE SANTANDER Escuela de Estudios Industriales y Empresariales

 Una cadena recurrente es un estado absorbente generalizado.  Si un proceso tiene dos o más cadenas recurrentes, entonces la propiedad ergódica no se mantiene en el tiempo.  Un estado transitorio es un estado que ocupa el sistema antes de convertirse en una cadena recurrente.  una cadena de Markov es regular si existe un número de etapas n tal que la probabilidad de la transición en n etapas entre cualquier par de estados es estrictamente positiva.

METODOLOGÍA La técnica de los procesos de Markov constituye una herramienta interesante para aplicar a diferentes procesos, en este artículo se va a mostrar el uso de ésta en los procesos de votación. El objetivo que se pretende es mejorar las predicciones electorales, sobre todo cuando es elevado el número de indecisos, la mecánica se basa en realizar la predicción teniendo en cuenta los resultados obtenidos en las últimas elecciones y la intención actual de voto. La formulación del modelo se hace de la siguiente forma: Estado

Descripción

V1

Vota por el candidato 1

V2

Vota por el candidato 2

V3

Vota por el candidato 3

*

*

*

*

Vm

Vota por el candidato m

UNIVERSIDAD INDUSTRIAL DE SANTANDER Escuela de Estudios Industriales y Empresariales

La formulación del proceso de votación como una cadena de Markov: Se puede suponer que son tres los candidatos en una elección, si no se tienen en cuenta los votos nulos y en blanco, entonces éstos serían los estados posibles: Estado V1= Vota por el candidato 1 Estado V2= Vota por el candidato 2 Estado V3= Vota por el candidato 3

Si se tiene el estado del voto en las elecciones anteriores y se mide la intención de voto actual, entonces:

Si suponemos que en el estado n=0, es decir en las últimas elecciones la votación fue la siguiente. Candidato 1= 45% Candidato 2= 22% Candidato 3= 33% La tabla anterior presenta la probabilidad que un votante que votó por el candidato 1 (V1) en las elecciones (n=0) pueda votar ahora (n=1) al candidato 1 (60%) o al candidato 2 (15%) o al candidato 3 (25%) etc.

UNIVERSIDAD INDUSTRIAL DE SANTANDER Escuela de Estudios Industriales y Empresariales

Matriz de Transición

La matriz de transición puede utilizarse para determinar la probabilidad de voto en el siguiente paso, es decir en las siguientes elecciones. A continuación plantearemos la posibilidad que en las elecciones siguientes gane el candidato 2. La probabilidad que se vote al candidato 2 teniendo en cuenta los resultados electorales pasados se formula de la siguiente manera: Que haya votado por el candidato 1 y ahora tenga la intención de votar por el candidato 2 o que haya votado por el candidato 2 y ahora tenga la intención de votarlo de nuevo o que haya votado por el candidato 3 y ahora tenga la intención de votar por el candidato 2. Intención de voto por candidato 2 = 0.45*0.15 + 0.22*0.5 + 0.33*0.10 = 0.2105 RESULTADOS Se calculara este problema como una cadena de markov: V1 = V0 P V1 es el vector intención de voto actual V0 es el vector intención de voto en elecciones pasadas P es matriz de transición La formula anterior es el producto de un vector por una matriz

UNIVERSIDAD INDUSTRIAL DE SANTANDER Escuela de Estudios Industriales y Empresariales

el resultado obtenido en la intención de voto por el candidato 2 de 0.2105 resulta de multiplicar [0.45, 0.22, 0.33] por la segunda columna de la matriz. Usando el programa Excel podemos obtener el resultado de multiplicar el vector propiamente dicho por la matriz de transición y obtendremos [V1=0.347, V2=0.2105, V3=0.4425] Así obtenemos que la intención de voto es: Candidato 1= 34.7% Candidato 2= 21.05% Candidato 3= 44.25%

CONCLUSIONES En el presente trabajo se propone la utilización de un modelo markoviano para predecir el comportamiento de un proceso de votación electoral. El modelo empleado es satisfactorio ya que con la metodología adoptada permite enfrentar la incertidumbre presente en esta clase de problemas, describiendo la dinámica del comportamiento de los votantes en términos probabilísticos.

BIBLIOGRAFÍA www.investigacion-operaciones.com/Curso_inv.../Clase3_II.pdf www.elo.utfsm.cl/~ipd436/clasificacion-estados-markov.ppt

UNIVERSIDAD INDUSTRIAL DE SANTANDER Escuela de Estudios Industriales y Empresariales...


Similar Free PDFs