Ir al contenido

Documat


Calculating the variance in Markov-processes with random reward

  • Autores: Francisco Benito
  • Localización: Trabajos de estadística e investigación operativa, ISSN 0041-0241, Vol. 33, Nº. 3, 1982, págs. 73-85
  • Idioma: inglés
  • DOI: 10.1007/bf02888435
  • Títulos paralelos:
    • Cálculo de la varianza en los procesos de Markov con ganancia aleatoria
  • Enlaces
  • Resumen
    • español

      En este artículo se presenta una generalización de los procesos de decisión markovianos en tiempo discreto: las ganancias en el tránsito de un estado a otro no son deterministas sino aleatorias; de las funciones de distribución se suponen conocidos únicamente los dos primeros momentos.

      Se deducen fórmulas para calcular la esperanza matemática y la varianza de la ganancia total del proceso en horizonte finito o infinito y con o sin descuento. Se hacen algunas observaciones sobre la función de distribución de la ganancia total.

      Los resultados tienen interés para introducir la noción de riesgo en la búsqueda de políticas óptimas.

      Este trabajo corrige y amplía resultados de otros autores, ilustrándolos con un ejemplo numérico

    • English

      In this article we present a generalization of Markov Decision Processes with discreet time where the immediate rewards in every period are not deterministic but random, with the two first moments of the distribution given.

      Formulas are developed to calculate the expected value and the variance of the reward of the process, formulas which generalize and partially correct other results. We make some observations about the distribution of rewards for processes with limited or unlimited horizon and with or without discounting.

      Application with risk sensitivity policies are possible; this is illustrated in a numerical example where the results are revalidated by simulation


Fundación Dialnet

Mi Documat

Opciones de artículo

Opciones de compartir

Opciones de entorno