Un teorema de verificación para indexabilidad de modelos restless bandit con estado real


José Niño Mora
Departamento de Estadística. Universidad Carlos III de Madrid
0000-0002-2172-3983

jose.nino@uc3m.es

Abstract

Este artículo se propone presentar de forma concisa y accesible a lectores no especialistas las principales contribuciones del trabajo del autor “A Verification Theorem for Threshold-Indexability of Real-State Discounted Restless Bandits”, Mathematics of Operations Research, vol. 45, no. 2, 465–496, 2020, que fue galardonado con el Premio SEIO – Fundación BBVA 2020 en la categoría de “Mejor contribución metodológica en Investigación Operativa”.

Keywords: Indexabilidad, Índice de Whittle, Leyes de conservación parciales, Restless bandits.

MSC Subject classifications: 90C40, 90B36, 90C39, 90C48.

Introducción

Este artículo se propone presentar de forma concisa y accesible a lectores no especialistas las principales contribuciones de mi artículo Niño-Mora (2020), que fue galardonado con el Premio SEIO – Fundación BBVA 2020 (en su primera convocatoria) en la categoría de “Mejor contribución metodológica en Investigación Operativa”.

El trabajo versa sobre problemas de tipo bandit, un término inglés sui géneris que emplearé en dicho idioma a falta de un equivalente exacto en español. El término one-armed bandit se emplea coloquialmente para designar lo que en español llamaríamos una máquina tragaperras, ya que, antes de que estas se operasen pulsando botones, el jugador debía accionar una palanca (arm) para jugar. En tal contexto, el lector apreciará el sentido del término bandit.

Un modelo probabilístico sencillo para un bandit podría representar los premios resultantes de distintas jugadas como variables aleatorias Bernoulli i.i.d. Así, en cada jugada ganamos un premio de \(1\) €  con cierta probabilidad \(p\), y no ganamos nada con probabilidad \(1-p\). Si el precio de cada jugada es un importe fijo de \(\lambda\) €, es evidente que solo nos interesa jugar si \(p > \lambda\).

El caso anterior resulta trivial porque hemos supuesto conocida la probabilidad \(p\). Resulta más realista suponer que no la conocemos. En tal caso, ¿hasta qué precio deberíamos estar dispuestos a pagar por jugar? Para poder responder a esta pregunta es necesario elaborar más el modelo. Adoptando un enfoque bayesiano, supongamos que \(p\) —vista ahora como una variable aleatoria— tiene una distribución a priori \(\mathrm{Beta}(m, n)\), donde \(m\) representa el número de éxitos (premio de \(1\) €) y \(n\) el número de fracasos (sin premio), de tal manera que la esperanza a priori de \(p\) es \(m / (m + n)\). Si no disponemos de información previa, podemos tomar, e.g., \(m = n = 1\). Si jugamos y ganamos, lo cual ocurre con probabilidad \(m / (m + n)\), la distribución a posteriori de \(p\) será \(\mathrm{Beta}(m+1, n)\), mientras que, si perdemos, será \(\mathrm{Beta}(m, n+1)\).

Lo anterior nos lleva a considerar que los parámetros de dicha distribución Beta en un momento dado constituyen el estado del sistema en cuestión. Este evoluciona y proporciona premios en jugadas sucesivas como una cadena de Markov con recompensas.

Ahora sí podemos formular con precisión la pregunta planteada anteriormente. Supongamos que las jugadas se realizan en etapas de tiempo \(t = 0, 1, 2, \ldots\), que las recompensas obtenidas en la etapa \(t\) se descuentan de forma geométrica con un factor de descuento por etapa \(0 < \beta < 1\), y que, en cada etapa, podemos decidir si continuamos jugando o abandonamos. En tal contexto, ¿hasta qué precio \(\lambda\) deberíamos estar dispuestos a pagar por jugar cada vez, partiendo del estado \((m, n)\)? O, de forma equivalente, ¿cuál es la política óptima para decidir cuándo abandonar el juego consiguiendo la máxima esperanza posible de la ganancia total descontada?

Este problema, que ya no es trivial, fue resuelto por primera vez por Bellman (1956), quien demostró lo siguiente: Existe una función \(\lambda^*\colon \mathbb{N}^2 \to \mathbb{R}\) (donde \(\mathbb{N}\) denota los números naturales empezando en \(1\)) tal que es óptimo jugar cuando el estado actual es \((m, n)\) si y solo si \(\lambda^*(m, n) \geqslant \lambda\), y es óptimo parar si y solo si \(\lambda^*(m, n) \leqslant \lambda\). Así, \(\lambda^*(m, n)\) representa el valor justo de jugar en el estado \((m, n)\).

Posteriormente, Gittins and Jones (1974) extendieron la solución de Bellman a un modelo general dado por una cadena de Markov con recompensas. Así, supongamos que el estado del bandit en cuestión evoluciona como una cadena de Markov \(X_t\) en etapas \(t = 0, 1, 2, \ldots\) sobre el espacio de estados \(\mathcal{X}\). Tras observar el estado \(X_t = x\) al comienzo de la etapa \(t\), podemos decidir continuar o parar. La opción de continuar (es decir, jugar una vez más) conlleva obtener una recompensa neta \(R(X_t) – \lambda\) (donde hemos restado el precio \(\lambda\) de jugar) que es función del estado, tras lo cual la cadena evoluciona al siguiente estado \(X_{t+1}\) de acuerdo con su ley de evolución Markoviana. La opción de parar no conlleva recompensa ni coste alguno, y supone abandonar el juego.

En tal contexto, podemos plantear la pregunta anterior: ¿Cuál es la política óptima para decidir cuándo abandonar consiguiendo la máxima esperanza posible de la ganancia total descontada? Resulta que la política óptima tiene la misma estructura que en el problema resuelto por Bellman, en términos de una función \(\lambda^*\colon \mathcal{X} \to \mathbb{R}\): es óptimo continuar jugando en el estado \(x\) si y solo si \(\lambda^*(x) \geqslant \lambda\), y es óptimo parar si y solo si \(\lambda^*(x) \leqslant \lambda\). Así, \(\lambda^*(x)\) representa el valor justo de jugar en el estado \(x\).

Pero Gittins and Jones (1974) fueron más allá, y consideraron el siguiente problema sustancialmente más complejo. Supongamos que, en lugar de un bandit, nos planteamos cómo jugar cuando tenemos enfrente una colección de, digamos, \(N\) bandits, donde cada bandit \(n = 1, \ldots, N\) tiene su propio espacio de estados, ley de evolución y función de recompensa de etapa. La restricción clave es que solo podemos jugar a uno de los \(n\) bandits en cada etapa.

Tal problema representa una versión de un problema clásico cuyo estudio se remonta a la década de 1930, con el trabajo pionero de Thompson (1933): el denominado problema multi-armed bandit (PMAB). La versión considerada por Gittins y Jones se puede abordar en principio mediante un enfoque de programación dinámica, basado en formular y resolver las ecuaciones de Bellman. Sin embargo, las incógnitas de dichas ecuaciones, que representan la función de valor óptimo, toman la forma \(v^*(x_1, \ldots, x_N)\), donde \(x_n\) es un estado del bandit \(n\), ya que el estado del sistema es ahora \(N\)-dimensional. Pero tal enfoque resulta numéricamente impracticable incluso para valores de \(N\) solo moderadamente grandes, ya que dichas ecuaciones sufren de la conocida como maldición de la dimensionalidad.

Descartado el enfoque numérico, numerosos autores trataron durante décadas, infructuosamente, de dilucidar la estructura de la política óptima para el PMAB. Pero no fue hasta el trabajo de Gittins and Jones (1974) cuando se aclaró que la política óptima tiene una estructura notablemente sencilla e intuitiva, dada en términos de las funciones \(\lambda_n^*(x_n)\) indicadas anteriormente: en una etapa en la cual el estado conjunto sea \((x_1, \ldots, x_N)\), es óptimo jugar a un bandit \(n\) con el mayor valor de \(\lambda_n^*(x_n)\).

Así, las funciones \(\lambda_n^*(x_n)\) se emplean como índices de prioridad, de tal manera que, cuanto mayor sea su valor, mayor es la prioridad para jugar al bandit correspondiente. La política óptima resultante es un ejemplo de política índice. En particular, la descrita anteriormente es la política índice de Gittins, y al índice \(\lambda_n^*(x_n)\) en que está basada se le conoce como índice de Gittins.

El enfoque anterior para el PMAB ha generado una vasta literatura, debido no solo a su interés teórico sino a sus múltiples aplicaciones. Ver, e.g., el artículo de discusión Gittins (1979) y la monografía Gittins (1989). Además, varios autores han presentado diversas demostraciones de tal resultado (optimalidad de una política índice) y extensiones. Ver, e.g., Whittle (1980), Varaiya, Walrand, and Buyukkoc (1985), Weber (1992), Tsitsiklis (1994), y Bertsimas and Niño-Mora (1996).

En un contexto más general, el PMAB modeliza la asignación dinámica óptima de un recurso a múltiples proyectos (en adelante emplearemos indistintamente los términos proyecto y bandit), uno de los cuales debe ser seleccionado como activo en cada etapa. Un supuesto clave en tal modelo es que los proyectos no seleccionados (pasivos) no cambian de estado. Whittle (1988) consideró las consecuencias de eliminar tal supuesto, permitiendo que los proyectos pasivos puedan cambiar de estado, según una ley de evolución que no tiene por qué coincidir con la que prevalece para proyectos activos. Los proyectos resultantes se denominan, por tanto, restless bandits.

La inclusión de transiciones de estado pasivas aumenta enormemente el poder de modelización del modelo clásico PMAB, dando lugar a su extensión conocida como el problema restless multi-armed bandit (PRMAB). En este, además, Whittle (1988) permitió también que se pudiese seleccionar un número arbitrario \(K\) de proyectos en cada etapa, con \(1 \leqslant K < N\), en contraste con el modelo clásico PMAB que requería \(K = 1\).

El poder aumentado de modelización del PRMAB con respecto al PMAB se obtiene a costa de perder la tractabilidad de este, ya que las políticas índice no son, en general, óptimas para aquel. De hecho, se ha probado que el PRMAB es computacionalmente intratable, en concreto P-space hard. Ver Papadimitriou and Tsitsiklis (1999). Pese a ello, Whittle propuso en dicho artículo una política índice subóptima para el PRMAB, basada en un enfoque de relajación lagrangiana y descomposición, y en la solución óptima de ciertos subproblemas para un único proyecto. Tal política índice de Whittle, basada en el empleo del índice de Whittle como índice de prioridad para el PRMAB, ha sido empleada en multitud de aplicaciones de dicho modelo. Los estudios computacionales típicamente reportan que su rendimiento es muy cercano al óptimo. En cuanto a su análisis teórico, Whittle conjeturó que su política índice es asintóticamente óptima, en el límite en que \(K\) y \(N\) tienden a infinito en razón constante. Dicha conjetura ha sido probada por diversos investigadores bajo distintos supuestos, comenzando con Weber and Weiss (1990). Para una panorámica de la investigación en este campo durante las tres últimas décadas, ver el reciente artículo de revisión Niño-Mora (2023).

Sin embargo, hay un obstáculo que dificulta la aplicación práctica de la política índice de Whittle. A diferencia del índice de Gittins, que existe para cualquier modelo bandit sin transiciones pasivas, el índice de Whittle solo existe para un subconjunto de modelos restless bandits, que Whittle denominó indexables. El propio Whittle indicó en su artículo seminal sobre este tema que no resulta sencillo determinar si un modelo dado es indexable, y que sería deseable disponer de condiciones suficientes de indexabilidad.

Los investigadores en este campo han empleado diversas técnicas ad hoc para probar, de forma más o menos rigurosa, la indexabilidad de los modelos considerados, y para calcular el índice de Whittle. En contraste con tales procedimientos, el autor de estas líneas ha venido desarrollando desde hace más de dos décadas una metodología general rigurosa y flexible para superar los obstáculos que plantea la indexabilidad. Los artículos clave en el desarrollo de dicha metodología son los siguientes: Niño-Mora (2001) (proyectos con estado finito), Niño-Mora (2002) (proyectos con estado finito incorporando asignación dinámica de un recurso genérico), Niño-Mora (2006) (proyectos con estado infinito numerable), y Niño-Mora (2020) (proyectos con estado real). Otros trabajos del autor no mencionados aquí abordan aspectos algorítmicos y aplicaciones.

El enfoque metodológico indicado más arriba se fundamenta en la identificación y aplicación de leyes de conservación, que extienden la identificada por Kleinrock en su trabajo clásico Kleinrock (1965), las cuales han desempeñado un importante papel en la resolución mediante políticas índice de modelos estocásticos de sistemas de servicio. Véase al respecto el artículo Niño-Mora (2011). En particular, Niño-Mora (2001) introdujo una extensión de las leyes de conservación identificadas anteriormente, que el autor denominó leyes de conservación parciales (PCL en sus siglas en inglés), en las cuales se basa dicho enfoque.

Los trabajos del autor indicados anteriormente desarrollan el enfoque basado en PCL para resolver la indexabilidad de modelos restless bandits, extendiéndolo a modelos cada vez más complejos, llegando hasta los modelos de tipo PRMAB donde los proyectos tienen un estado real en Niño-Mora (2020).

La principal motivación de estos últimos viene de un importante campo de investigación aplicada: la asignación dinámica óptima de recursos en redes de sensores. En efecto, los sensores recogen a lo largo del tiempo información sobre el estado del mundo real. Sin embargo, tal información es imperfecta, lo cual se puede modelizar considerando que el estado conocido es una distribución de probabilidad sobre el estado auténtico subyacente, el cual no es observable. Si este último solo puede tomar dos valores, \(0\) y \(1\), basta considerar la probabilidad de que se encuentre en el estado \(1\). Otra posibilidad es considerar que el estado conocido es la varianza del error de observación del sensor, suponiendo mediciones unidimensionales. En ambos casos, el estado conocido, que es distinto del estado subyacente no observable, es continuo, o, en particular, real.

Por tanto, diversos problemas de asignación dinámica de sensores se pueden formular como modelos de tipo PRMAB en los cuales los proyectos, que en tal contexto pueden representar, e.g., objetivos móviles sobre los que se desea realizar un seguimiento mediante la asignación dinámica de sensores, tienen un estado continuo. Ver, e.g., La Scala and Moran (2006), Mahajan and Teneketzis (2008), Moran, Suvorova, and Howard (2008), Washburn (2008), Liu and Zhao (2010), Dance and Silander (2015), Dance and Silander (2019) y Zhao (2020). En tal contexto, los proyectos se modelizan mediante procesos de decisión Markovianos parcialmente observados (POMDP en sus siglas en inglés). Ver, e.g., la monografía de Krishnamurthy (2016).

Si en modelos de tipo PRMAB con estado discreto no resulta sencillo establecer su indexabilidad, tal objetivo resulta aún más difícil en los modelos arriba mencionados para la operación óptima de redes de sensores, incluso cuando el estado de cada proyecto es real. Tal es la motivación del trabajo reseñado en este artículo, Niño-Mora (2020): encontrar condiciones generales para la indexabilidad de restless bandits con estado real, y dilucidar cómo calcular el índice de Whittle y extensiones en tales modelos.

El resto del artículo se organiza como sigue. La sección 2 plantea el problema resuelto en Niño-Mora (2020). La sección 3 esboza la resolución del problema mediante condiciones suficientes de indexabilidad. La sección 4 comenta sobre la aplicación de las condiciones de indexabilidad, y reseña cómo otros autores las han aplicado con éxito. Finalmente, la sección 5 concluye el artículo con una breve discusión.

Indexabilidad para proyectos con estado real: planteamiento del problema

Control dinámico de un proyecto, métricas y problemas \(\lambda\)-precio

Consideramos aquí un modelo de tipo restless bandit para la asignación dinámica óptima de un recurso a un proyecto, cuyo estado \(X_{t}\) evoluciona en tiempo discreto sobre un horizonte infinito a través del espacio de estados \(\mathsf{X} \triangleq [\ell, u]\).

Al comienzo de cada etapa de tiempo \(t = 0, 1, \ldots\), el controlador del proyecto observa el estado \(X_t\), tras lo cual selecciona una acción \(A_t \in \{0, 1\}\), donde \(A_t = 1\) (resp. \(A_t = 0\)) modeliza que el proyecto está siendo operado en el modo activo (resp. modo pasivo) en la etapa \(t\). Denotamos como \(\mathsf{K} \triangleq \mathsf{X} \times \{0, 1\}\) el espacio de estados-acciones. Si \((X_t, A_t) = (x, a)\) entonces: (i) asignamos al proyecto \(c(x, a)\) unidades del recurso y obtenemos una recompensa \(r(x, a)\) en la etapa \(t\), estando ambos geométricamente descontados con el factor \(\beta \in [0, 1)\); y (ii) el estado se mueve a \(X_{t+1}\) de acuerdo con un kernel Markoviano de transición \(\kappa^a(\cdot, \cdot)\) sobre \(\mathsf{X}\) con función de distribución cumulativa (CDF en sus siglas en inglés) \(Q^a(x, \cdot)\), luego \(\mathbb{P}\{X_{t+1} \leqslant y \, | \, (X_t, A_t) = (x, a)\} = Q^a(x, y) \triangleq \kappa^a(x, (-\infty, y])\).

En adelante mantendremos el siguiente supuesto

Supuesto 1: Para cada acción \(a\):

  • \(r(\cdot, a), c(\cdot, a) \in \mathbb{C}(\mathsf{X}),\) donde \(c(\cdot, a)\) satisface

    \[\label{eq:ux01ass}
    0 \leqslant c(x, 0) < c(x, 1), \quad x \in \mathsf{X};\qquad(1)\]

  • existe una función peso medible \(w\colon \mathsf{X} \to [1, \infty)\) y constantes \(M > 0,\) \(\gamma \in [\beta, 1)\) tales que\(,\) para cada estado \(x,\)

    • \(\max \{\vert r \vert(x, a), c(x, a)\} \leqslant M \, w(x);\)


    • \(\beta \widetilde{w}(x, a) \leqslant \gamma
      \, w(x),\)
      donde \(\widetilde{w}(x, a) \triangleq \int w(y) \, Q^a(x, dy);\)

Nótese que el Supuesto [ass:first](ii) corresponde al enfoque de normas sup ponderadas para procesos de decisión Markovianos con criterio descontado (ver (Lippman 1975; Wessels 1977; Heilmann 1977; Van Nunen and Wessels 1978) y (Hernández-Lerma and Lasserre 1999, Supuesto 8.3.2)), el cual permite que \(r(\cdot, a)\) y \(c(\cdot, a)\) sean no acotadas.

Las acciones se seleccionan mediante una política de control \(\pi = (\pi_t)_{t=0}^\infty\), perteneciente a la clase \(\Pi\) de políticas aleatorizadas no anticipativas, las cuales seleccionan en cada etapa \(t\) la acción \(A_t = a\) con probabilidad \(\pi_t(a \, | \, \mathcal{H}_t)\), una función medible de la historia \(\mathcal{H}_t \triangleq \big((X_s, A_s)_{s=0}^{t-1}; X_t\big)\). Además consideramos la clase \(\Pi^{\scriptscriptstyle \textup{SR}}\) de políticas estacionarias aleatorizadas, donde \(\pi_t(a \, | \, \mathcal{H}_t) = p(a \, | \, X_t)\) para alguna función \(p(\cdot \, | \, \cdot) \geqslant 0\) con \(\sum_{a} p(a \, | \, x) = 1\) para cada \(x\), y la clase \(\Pi^{\scriptscriptstyle \textup{SD}}\) de políticas estacionarias deterministas, donde \(p(1 \, | \, x) = 1_{B}(x)\) para alguna región activa \(B \in \mathcal{B}(\mathsf{X})\). Así, nos referiremos a la \(B\)-política, escribiendo \(\pi = B\).

Para una política admisible \(\pi \in \Pi\) y una distribución de probabilidad \(p\) sobre \(\mathcal{B}(\mathsf{X})\) sobre el estado inicial (\(X_0 \sim p\)), sea \(\mathbb{P}_p^{\pi}\) la distribución de probabilidad que determinan sobre el espacio \(\mathsf{K}^\infty\) de caminos estado-acción con la \(\sigma\)-algebra producto. Denotamos con \(\mathbb{E}_p^{\pi}\) la correspondiente esperanza, escribiendo \(\mathbb{P}_x^{\pi}\) y \(\mathbb{E}_x^{\pi}\) cuando \(p = \delta_x\), la distribución de Dirac concentrada en \(x\).

Evaluamos una política \(\pi\) partiendo de \(p\) con las métricas de rendimiento de \((\)uso de\()\) recurso y de recompensa

\[\label{eq:FGboldx0pis}
F(p, \pi) \triangleq \mathbb{E}_{p}^{\pi}\left[\sum_{t = 0}^\infty
\beta^t r(X_{t}, A_{t})\right] \quad \textup{y} \quad G(p, \pi)\triangleq \mathbb{E}_{p}^{\pi}\Bigg[\sum_{t = 0}^\infty
\beta^t c(X_{t}, A_{t})\Bigg],\qquad(2)\]

las cuales escribimos como \(F(x, \pi)\) y \(G(x, \pi)\) cuando \(X_0 = x\), y como \(F(p, B)\) y \(G(p, B)\) cuando \(\pi = B\).

Supongamos que se carga un precio \(\lambda\) por unidad de recurso empleada, y denotemos con \(V_\lambda(p, \pi) \triangleq F(p, \pi)- \lambda G(p, \pi)\) la métrica de valor neto del proyecto. Consideremos la siguiente colección de problemas de control óptimo del proyecto, parametrizada por el precio del recurso \(\lambda \in \mathbb{R}\):



\[\label{eq:lpreciopfg1}
P_\lambda\colon \qquad \textup{encontrar } \pi_\lambda^* \in \Pi \textup{ tal que } V_\lambda(x, \pi_\lambda^*) = \sup_{\pi \in \Pi} \, V_\lambda(x, \pi) \textup{ para cada } x \in \mathsf{X}.\qquad(3)\]

Llamaremos a \(P_\lambda\) el problema \(\lambda\)-precio y denotaremos con \(V_\lambda^*(x) \triangleq \sup_{\pi \in \Pi} \, V_\lambda(x, \pi)\) su función de valor óptimo, para \(x \in \mathsf{X}\). Diremos que una política \(\pi_\lambda^*\) es \(P_\lambda\)-óptima si \(V_\lambda(x, \pi_\lambda^*) = V_\lambda^*(x)\) para cada \(x\).

A continuación esbozamos resultados relevantes del enfoque basado en normas sup ponderadas a los procesos de decisión Markovianos, los cuales aseguran, en particular, que cada problema \(\lambda\)-precio se puede resolver mediante una política estacionaria determinista. Denotemos con \(\mathbb{B}_w(\mathsf{K})\) y \(\mathbb{B}_w(\mathsf{X})\) los espacios de Banach (ver (Hernández-Lerma and Lasserre 1999, Prop. 7.2.1)) de funciones medibles \(w\)-acotadas \(u\colon \mathsf{K} \to \mathbb{R}\) y \(v\colon \mathsf{X} \to \mathbb{R},\) respectivamente, con \(w\)-normas finitas, dadas por

\[\label{eq:vxwnorm}
\| u \|_w \triangleq \sup \bigg\{\frac{\vert u \vert (x, a) }{w(x)}\colon (x, a) \in \mathsf{K}\bigg\}
\quad \textup{and} \quad
\| v \|_w \triangleq \sup \bigg\{\frac{\vert v \vert (x)}{w(x)}\colon x \in \mathsf{X}\bigg\},\qquad(4)\]

y escribamos como \(\mathbb{P}_w(\mathsf{X})\) el espacio de medidas de probabilidad \(p\) sobre \(\mathcal{B}(\mathsf{X})\) con \(w\)-norma finita, dada por

\[\label{eq:pmwnorm}
\| p \|_w \triangleq \int w \, dp = \mathbb{E}_{p}[w(X_0)].\qquad(5)\]

Denotemos además con \(\mathbb{C}_w(\mathsf{K}) \triangleq \mathbb{C}(\mathsf{K}) \cap \mathbb{B}_w(\mathsf{K})\) y \(\mathbb{C}_w(\mathsf{X}) \triangleq \mathbb{C}(\mathsf{X}) \cap \mathbb{B}_w(\mathsf{X})\) el subspacio correspondiente de funciones continuas \(w\)-acotadas.

En adelante, \(F(\cdot, \pi)\), \(G(\cdot, \pi)\) y \(V_\lambda(\cdot, \pi)\) denotarán las funciones sobre \(\mathsf{X}\) correspondientes a las métricas de recompensa, recurso y valor neto del proyecto, \(F(x, \pi)\), \(G(x, \pi)\) y \(V_\lambda(x, \pi)\).

Observación 1: Bajo el Supuesto [ass:first] (cf. (Hernández-Lerma and Lasserre 1999, The. 8.3.6)):

  • \(r(\cdot, a), c(\cdot, a) \in \mathbb{C}_w(\mathsf{X});\) \(r, c \in \mathbb{C}_w(\mathsf{K});\) y \(\kappa^a(x, \cdot) \in \mathbb{P}_w(\mathsf{X}).\)

  • Para cualquier \(\pi \in \Pi\) y \(\lambda \in \mathbb{R},\) \(F(\cdot, \pi), G(\cdot, \pi), V_\lambda(\cdot, \pi) \in \mathbb{B}_w(\mathsf{X});\) con \(M_\gamma \triangleq M/(1-\gamma),\) tenemos

    \[\label{eq:FGMwnon}
    \max \{\| F(\cdot, \pi) \|_w,
    \| G(\cdot, \pi) \|_w\} \leqslant M_\gamma,
    \
    \| V_\lambda(\cdot, \pi)\|_w \leqslant (1 + |\lambda|) M_\gamma.\qquad(6)\]

  • Para cualquier \(\pi \in \Pi,\) \(p \in \mathbb{P}_w(\mathsf{X})\) y \(\lambda \in \mathbb{R},\) \(F(p, \pi),\) \(G(p, \pi)\) y \(V_\lambda(p, \pi)\) están bien definidas y son finitas\(,\) siendo iguales a \(\int F(x, \pi) \, p(dx),\) \(\int G(x, \pi) \, p(dx)\) y \(\int V_\lambda(x, \pi) \, p(dx),\) respectivamente\(,\) y satisfacen

    \[\label{eq:FGMnuwnon}
    \max \{|F|(p, \pi) ,
    G(p, \pi)\} \leqslant M_\gamma \| p \|_w,
    \
    |V_\lambda|(p, \pi) \leqslant (1 + |\lambda|) M_\gamma \| p \|_w.\qquad(7)\]

  • Para una región activa \(B \in \mathcal{B}(\mathsf{X})\), \(F(\cdot, B)\) y \(G(\cdot, B)\) están caracterizadas \((\)cf. (Hernández-Lerma and Lasserre 1999, Remark 8.3.10)\()\) como las únicas soluciones en \(\mathbb{B}_w(\mathsf{X})\) a las ecuaciones de punto fijo

    \[\label{eq:fxbee}
    \begin{split}
    F(x, B) & =
    r(x, 1_{B}(x)) + \beta \int F(y, B) \,
    Q^{1_B(x)}(x, dy), \quad x \in \mathsf{X} \\
    G(x, B) & =
    c(x, 1_B(x)) + \beta \int G(y, B) \,
    Q^{1_B(x)}(x, dy), \quad x \in \mathsf{X}.
    \end{split}\qquad(8)\]

  • Para cualquier precio \(\lambda \in \mathbb{R},\) el operador de Bellman \(\mathcal{T}_\lambda\colon \mathbb{B}_w(\mathsf{X}) \to \mathbb{B}_w(\mathsf{X})\) definido por

    \[\label{eq:Vstast}
    \mathcal{T}_\lambda v(x) \triangleq \max_{a \in \{ 0, 1\}} \, \mathcal{T}_\lambda^a v(x), \quad \textup{where } \mathcal{T}_\lambda^a v(x) \triangleq r(x, a) – \lambda c(x, a) + \beta
    \int v(y) \, Q^a(x, dy),\qquad(9)\]

    es una aplicación contractiva con módulo \(\gamma\) (ver el Supuesto [ass:first](ii)), y la ecuación de Bellman (BE)

    \[\label{eq:dpoes}
    v = \mathcal{T}_\lambda v,\qquad(10)\]

    tiene un único punto fijo en \(\mathbb{B}_w(\mathsf{X})\) dada por la función de valor óptimo \(V_\lambda^*\) del problema \(P_\lambda,\) con

    \[\label{eq:VMwnon}
    \| V_\lambda^*\|_w \leqslant (1 + |\lambda|) M_\gamma.\qquad(11)\]

  • Para cualquier \(\lambda \in \mathbb{R}\) existe una política estacionaria determinista \(P_\lambda\)-óptima, donde decimos que una política en \(\Pi^{\scriptscriptstyle \textup{SD}}\) es \(P_\lambda\)-óptima si selecciona en cada estado \(x\) una acción \(a\) tal que \(\mathcal{T}_\lambda^a V_\lambda^*(x) \geqslant \mathcal{T}_\lambda^{1-a} V_\lambda^*(x)\).

A la luz de la Observación [re:assboundfs](vi), diremos que la acción \(a\) es \(P_\lambda\)-óptima en el estado \(x\) si \(\mathcal{T}_\lambda^a V_\lambda^*(x) \geqslant \mathcal{T}_\lambda^{1-a} V_\lambda^*(x)\). Por tanto, ambas acciones serán \(P_\lambda\)-óptimas en \(x\) si y solo si se cumple la siguiente ecuación:

\[\label{eq:bothactopt}
\mathcal{T}_\lambda^0 V_\lambda^*(x) = \mathcal{T}_\lambda^1 V_\lambda^*(x).\qquad(12)\]

Indexabilidad

Abordaremos la colección de problemas \(\{P_\lambda\colon \lambda \in \mathbb{R}\}\) mediante el concepto de indexabilidad, extendido en Whittle (1988) desde su origen en bandits sin transiciones pasivas a restless bandits con consumo de recurso \(c(x, a) \equiv a\), y extendido en Niño-Mora (2002) a funciones \(c(x, a)\) generales.

Para un precio \(\lambda\) y una acción \(a\), definimos la \(a\)-región \(P_\lambda\)-óptima \(S^{*, a}_\lambda\) por

\[\label{eq:Sstarlam}
S^{*, a}_\lambda \triangleq \big\{x \in \mathsf{X}\colon \mathcal{T}_\lambda^a V_\lambda^*(x)
\geqslant \mathcal{T}_\lambda^{1-a} V_\lambda^*(x)\big\},\qquad(13)\]

de tal manera que se compone de aquellos estados \(x\) donde la acción \(a\) es \(P_\lambda\)-óptima. Bajo indexabilidad, tales regiones están caracterizadas por un índice asociado a los estados del proyecto.

Definición 1: Decimos que un proyecto es indexable si existe un índice \(\lambda^*\colon \mathsf{X} \to \mathbb{R}\) tal que


\[\label{eq:Sstar10}
S^{*, 1}_\lambda = \{x \in \mathsf{X}\colon \lambda^*(x) \geqslant \lambda\} \; \textup{ y } \;
S^{*, 0}_\lambda = \{x \in \mathsf{X}\colon \lambda^*(x) \leqslant \lambda\}, \quad \lambda \in \mathbb{R}.\qquad(14)\]

Nos referiremos al índice de Gittins y al índice de Whittle según el proyecto no admita o admita transiciones pasivas de estado.

Observación 2:

  • El proyecto es indexable con índice \(\lambda^*\) si la acción \(P_\lambda\)-óptima en cada estado es monótona no-creciente en \(\lambda,\) con ambas acciones \(P_\lambda\)-óptimas en \(x\) solo para \(\lambda = \lambda^*(x);\) así\(,\) para \(\lambda < \lambda^*(x)\) \((\)resp. \(\lambda > \lambda^*(x))\), \(a = 1\) \((\)resp. \(a = 0)\) es la única acción \(P_\lambda\)-óptima en \(x\).

  • La indexabilidad se puede definir como la siguiente propiedad de la función \(J_\lambda^* \triangleq \mathcal{T}_\lambda^1 V_\lambda^* – \mathcal{T}_\lambda^0 V_\lambda^*:\) el proyecto es indexable con índice \(\lambda^*\) si\(,\) para cada estado \(x,\) la ecuación \(J_\lambda^*(x) = 0\) en la variable \(\lambda\) tiene como única raíz \(\lambda = \lambda^*(x),\) con \(J_\lambda^*(x) > 0\) para \(\lambda < \lambda^*(x)\) y \(J_\lambda^*(x) < 0\) para \(\lambda > \lambda^*(x).\)

  • Como ya se indicó en Whittle (1988), no todos los proyectos de tipo restless bandit son indexables. Ello motiva la cuestión de dilucidar condiciones suficientes de indexabilidad que no requieran evaluar la función de valor óptimo \(V_\lambda^*\). Tal el el principal objetivo de este trabajo.

    Indexabilidad-umbral fuerte

    Centraremos el análisis de la indexabilidad en el caso en que se cumple de forma consistente con la optimalidad de políticas umbral. Para cada umbral \(z \in \overline{\mathbb{R}}\) consideramos dos políticas estacionarias deterministas: la \(z\)-política, con región activa \((z, u]\), en la cual el proyecto está activo en la etapa \(t\) (\(A_t = 1\)) cuando su estado supera el umbral (\(X_t > z\)); y la \(z^{\scriptscriptstyle -}\)-política, con región activa \([z, u]\), en la cual \(A_t = 1\) cuando \(X_t \geqslant z\). Escribiremos las métricas correspondientes como \(F(p, z)\), \(G(p, z)\), \(F(p, z^{\scriptscriptstyle -})\) y \(G(p, z^{\scriptscriptstyle -})\).

    Denotaremos con \(F(p, \cdot)\) y \(G(p,\cdot)\) las funciones sobre \(\mathbb{R}\) que mapean \(z\) a \(F(p, z)\) y \(G(p, z)\), respectivamente.

    Definición 2 (Indexabilidad-umbral fuerte):Diremos que un proyecto presenta indexabilidad-umbral fuerte si es indexable y, para todo precio \(\lambda \in \mathbb{R},\) existe un umbral \(z \in \overline{\mathbb{R}}\) tal que la \(z\)-política y la \(z^{\scriptscriptstyle -}\)-política son \(P_\lambda\)-óptimas.

    Además, para un umbral \(z \in \overline{\mathbb{R}}\) y un escalar \(\alpha \in [0, 1]\) nos referiremos a la política umbral aleatorizada \(\alpha z^{\scriptscriptstyle -} + (1-\alpha) z\), la cual, en cada estado \(x\), toma la acción \(a = 1\) si \(x > z\); toma la acción \(a = 0\) si \(x < z\); y toma las acciones \(a = 0\) y \(a = 1\) con probabilidades \(\alpha\) y \(1-\alpha\), respectivamente, si \(x = z\).

    Métricas de rendimiento marginal e índice de productividad marginal

    Emplearemos los conceptos de métricas de rendimiento marginal e índice de productividad marginal (PM), introducidos en Niño-Mora (2002) para restless bandits con estado discreto, los cuales adaptamos a continuación al presente contexto con estado real.

    Para una acción \(a\) y una política \(\pi\), sea \(\langle a, \pi\rangle\) la política que toma la acción \(a\) en la etapa inicial \(t = 0\) y después adopta la política \(\pi\) desde \(t = 1\) en adelante. Medimos los cambios en recompensas ganadas y en recurso gastado, respectivamente, como resultado de cambiar de la política \(\langle 0, \pi\rangle\) a \(\langle 1, \pi\rangle\) comenzando en el estado \(x\) mediante la métrica de recompensa marginal

    \[\label{eq:mrm1}
    f(x, \pi)\triangleq \Delta_{a=0}^{a=1} F(x, \langle a, \pi\rangle) = F(x, \langle 1, \pi\rangle) – F(x, \langle 0, \pi\rangle)\qquad(15)\]

    y la métrica de recurso marginal

    \[\label{eq:mwm1}
    g(x, \pi)\triangleq \Delta_{a=0}^{a=1} G(x, \langle a, \pi\rangle).\qquad(16)\]

    Si \(g(x, B)\neq 0\) para algún \(x\) y \(B\), medimos la PM que resulta de tomar la acción activa vs. la pasiva en \(t = 0\) partiendo de \(x\), en relación a la \(B\)-política, mediante la PM-métrica

    \[\label{eq:mpm1}
    m(x, B)\triangleq \frac{f(x, B)}{g(x, B)}.\qquad(17)\]

    Escribiremos como \(f(x, z)\), \(g(x, z)\), \(m(x, z)\) y \(f(x, z^{\scriptscriptstyle -})\), \(g(x, z^{\scriptscriptstyle -})\), \(m(x, z^{\scriptscriptstyle -})\) las métricas marginales para la \(z\)-política y para la \(z^{\scriptscriptstyle -}\)-política, respectivamente.

    A continuación empleamos la PM-métrica para definir el índice PM.

    Definición 3 Índice PM: Supongamos que \(g(x, x) > 0\) para cada estado \(x.\) Entonces\(,\) el índice PM del proyecto es la función \(m^*\) sobre \(\mathsf{X}\) dada por

    \[\label{eq:phimpx}
    m^*(x) \triangleq m(x, x) = \frac{f(x, x)}{g(x, x)}, \quad x \in \mathsf{X}.\qquad(18)\]

    Resolución del problema: un teorema de verificación para indexabilidad-umbral fuerte

    En esta sección presentamos el principal resultado del artículo, un teorema de verificación que proporciona condiciones suficientes de indexabilidad, el cual, en contraste con la aplicación directa de la Definition [def:indx], no requiere ni que se evalúe la función de valor óptimo \(V_\lambda^*\) del problema \(\lambda\)-precio \(P_\lambda\) ni tampoco estudiar sus propiedades. En su lugar, las condiciones que tenemos que verificar aquí conciernen propiedades de las métricas del proyecto bajo políticas umbral, y por tanto requieren únicamente el análisis de rendimiento de tales políticas.

    Las condiciones suficientes en nuestro teorema de verificación corresponden al concepto de PCL-indexabilidad, que este teorema extiende del contexto de estado discreto en Niño-Mora (2001, 2002, 2006, 2007) al presente contexto de estado real.

    Definición 4 (PCL-indexabilidad): Diremos que un proyecto es PCL-indexable (con respecto a políticas umbral) si satisface las siguientes condiciones de PCL-indexabilidad:

    • (PCLI1) \(g(x, z) > 0\) para todo estado \(x \in \mathsf{X}\) y umbral \(z \in \overline{\mathbb{R}};\)

    • (PCLI2) el índice PM \(m^*\) es monótono no-decreciente, continuo y acotado por abajo en \(\mathsf{X};\)

    • (PCLI3) para cada estado \(x,\) \(F(x, \cdot),\) \(G(x, \cdot)\) y \(m^*\) satisfacen la relación

      \[\label{eq:pcli3}
      F(x, z_2) – F(x, z_1) = \int_{(z_1, z_2]} m^*(z) \, G(x, dz), \quad -\infty < z_1 < z_2 < \infty,\qquad(19)\]

      donde el lado derecho en ([eq:pcli3]) es una integral de Lebesgue–Stieltjes.

    El teorema de verificación se formula a continuación.

    Teorema 1: Si un proyecto es PCL-indexable entonces posee indexabilidad-umbral fuerte con índice \(m^*(x)\).

    Aplicación de las condiciones de indexabilidad

    La Sección 12 del artículo Niño-Mora (2020) ilustra la aplicación del Teorema [the:pcliii] mediante dos ejemplos, uno sobre un modelo de transmisiones óptimas de paquetes de datos sobre un canal de comunicaciones parcialmente observable, y otro sobre la operación óptima de un robot de búsqueda en internet. Sin embargo, entre las aplicaciones de tal resultado desde su introducción destaca la desarrollada por Dance and Silander (2019). En este trabajo extraordinario, sus autores aplican el Teorema [the:pcliii] para demostrar la indexabilidad del modelo restless bandit con dinámica dada por el filtro de Kalman, el cual es relevante para aplicaciones de seguimiento de objetivos móviles mediante radares, véase La Scala and Moran (2006). Además, el trabajo Dance and Silander (2019) aclara por qué los intentos previos de obtener tal resultado mediante la aplicación de técnicas estándar, como la submodularidad, resultaron infructuosos: ello se debe a que este modelo no cumple los supuestos en que se basan tales técnicas.

    Conclusión

    El artículo Niño-Mora (2020), si bien extiende resultados previos del autor, sin embargo por otra parte representa un punto de partida para el análisis de modelos más complejos. En particular, el análisis de modelos restless bandits con estado real y múltiples acciones, y con estado continuo multi-dimensional, plantean desafíos que serán objeto de futuras investigaciones.

    Agradecimientos

    El artículo Niño-Mora (2020) ha sido desarrollado durante un largo período de tiempo desde el año 2008, con financiación del Ministerio de Educación y Ciencia [proyecto MTM2007-63140], el Ministerio de Ciencia e Innovación [proyecto MTM2010-20808], y el Ministerio de Economía y Competitividad [proyecto ECO2015-66593-P]. Este artículo ha ido elaborado en el marco del proyecto PID2019-109196GB-I00 de investigación financiado por MCIN/ AEI /10.13039/501100011033. El autor publicó ya en 2015 una versión inicial del artículo en arXiv, ver Niño-Mora (2015), que ya entonces envió a la revista Mathematics of Operations Research. El autor agradece al entonces Editor-en-Jefe de dicha revista, Jim Dai, que interviniese y desbloquease un proceso de revisión tortuoso que se vio indebidamente retrasado por interferencias espurias.

    Referencias

    Bellman, R. 1956. “A Problem in the Sequential Design of Experiments.” Sankhyā: The Indian Journal of Statistics 16: 221–29.
    Bertsimas, D., and J. Niño-Mora. 1996. “Conservation Laws, Extended Polymatroids and Multiarmed Bandit Problems; a Polyhedral Approach to Indexable Systems.” Math. Oper. Res. 21: 257–306.
    Dance, C. R., and T. Silander. 2015. “When Are Kalman-Filter Restless Bandits Indexable?” In 29th Conference on Neural Information Processing Systems (NIPS), Montreal, Canada, edited by C. Cortes, D. D. Lee, M. Sugiyama, and R. Garnett, 1711–19. Cambridge, MA: MIT Press.
    ———. 2019. “Optimal Policies for Observing Time Series and Related Restless Bandit Problems.” J. Mach. Learn. Res. 20: 35.
    Gittins, J. C. 1979. “Bandit Processes and Dynamic Allocation Indices (with Discussion).” J. Roy. Statist. Soc. Ser. B 41: 148–77.
    ———. 1989. Multi-Armed Bandit Allocation Indices. Chichester, UK: Wiley.
    Gittins, J. C., and D. M. Jones. 1974. “A Dynamic Allocation Index for the Sequential Design of Experiments.” In Progress in Statistics (Proceedings of the European Meeting of Statisticians, Budapest, Hungary, 1972), edited by J. Gani, K. Sarkadi, and I. Vincze, 9:241–66. Colloq. Math. Soc. János Bolyai. Amsterdam, The Netherlands: North-Holland.
    Heilmann, W. -R. 1977. “Linear Programming of Dynamic Programs with Unbounded Rewards.” Meth. Oper. Res. 24: 94–105.
    Hernández-Lerma, O., and J. B. Lasserre. 1999. Further Topics on Discrete-Time Markov Control Processes. New York, NY, USA: Springer.
    Kleinrock, L. 1965. “A Conservation Law for a Wide Class of Queueing Disciplines.” Naval Res. Logist. Quart. 12: 181–92.
    Krishnamurthy, V. 2016. Partially Observed Markov Decision Processes: From Filtering to Controlled Sensing. Cambridge, UK: Cambridge University Press.
    La Scala, B. F., and W. Moran. 2006. “Optimal Target Tracking with Restless Bandits.” Digit. Signal Process. 16: 479–87.
    Lippman, S. A. 1975. “On Dynamic Programming with Unbounded Rewards.” Management Sci. 21: 1225–33.
    Liu, K., and Q. Zhao. 2010. “Indexability of Restless Bandit Problems and Optimality of Whittle Index for Dynamic Multichannel Access.” IEEE Trans. Inform. Theory 56: 5547–67.
    Mahajan, A., and D. Teneketzis. 2008. “Multi-Armed Bandit Problems.” In Foundations and Applications of Sensor Management, edited by A. O. Hero III, D. A. Castañón, D. Cochran, and K. Kastella, 121–51. Boston, MA: Springer.
    Moran, W., S. Suvorova, and S. Howard. 2008. “Application of Sensor Scheduling Concepts to Radar.” In Foundations and Applications of Sensor Management, edited by A. O. Hero, D. Castañón, D. Cochran, and K. Kastella, 221–56. Boston, MA: Springer.
    Niño-Mora, J. 2001. “Restless Bandits, Partial Conservation Laws and Indexability.” Adv. Appl. Probab. 33: 76–98.
    ———. 2002. “Dynamic Allocation Indices for Restless Projects and Queueing Admission Control: A Polyhedral Approach.” Math. Program. 93: 361–413.
    ———. 2006. “Restless Bandit Marginal Productivity Indices, Diminishing Returns and Optimal Control of Make-to-Order/Make-to-Stock M/G/1 Queues.” Math. Oper. Res. 31: 50–84.
    ———. 2007. “Dynamic Priority Allocation via Restless Bandit Marginal Productivity Indices (with Discussion).” TOP 15: 161–98.
    ———. 2011. “Conservation Laws and Related Applications.” In Wiley Encyclopedia of Operations Research and Management Science, edited by J. J. Cochran, L. A. Cox Jr., P. Keskinocak, J. P. Kharoufeh, and J. C. Smith. New York, NY, USA: Wiley. https://doi.org/10.1002/9780470400531.eorms0186.
    ———. 2015. “A Verification Theorem for Indexability of Discrete Time Real State Discounted Restless Bandits.” ArXiv:1512.04403v1. https://doi.org/10.48550/arXiv.1512.04403.
    ———. 2020. “A Verification Theorem for Threshold-Indexability of Real-State Discounted Restless Bandits.” Math. Oper. Res. 45: 465–96.
    ———. 2023. “Markovian Restless Bandits and Index Policies: A Review.” Mathematics 11, (1639).
    Papadimitriou, C. H.., and J. N. Tsitsiklis. 1999. “The Complexity of Optimal Queuing Network Control.” Math. Oper. Res. 24: 293–305.
    Thompson, W. R. 1933. “On the Likelihood That One Unknown Probability Exceeds Another in View of the Evidence of Two Samples.” Biometrika 25: 275–94.
    Tsitsiklis, J. N. 1994. “A Short Proof of the Gittins Index Theorem.” Ann. Appl. Probab. 4: 194–99.
    Van Nunen, J. A. E. E., and J. Wessels. 1978. “A Note on Dynamic Programming with Unbounded Rewards.” Management Sci. 24: 576–80.
    Varaiya, P. P., J. C. Walrand, and C. Buyukkoc. 1985. “Extensions of the Multiarmed Bandit Problem: The Discounted Case.” IEEE Trans. Automat. Control 30: 426–39.
    Washburn, R. B. 2008. “Application of Multi-Armed Bandits to Sensor Management.” In Foundations and Applications of Sensor Management, 153–75. Springer, Boston: Springer.
    Weber, R. R. 1992. “On the Gittins Index for Multiarmed Bandits.” Ann. Appl. Probab. 2: 1024–33.
    Weber, R. R., and G. Weiss. 1990. “On an Index Policy for Restless Bandits.” J. Appl. Probab. 27: 637–48.
    Wessels, J. 1977. “Markov Programming by Successive Approximations with Respect to Weighted Supremum Norms.” J. Math. Anal. Appl. 58: 326–35.
    Whittle, P. 1980. “Multi-Armed Bandits and the Gittins Index.” J. Roy. Statist. Soc. Ser. B 42: 143–49.
    ———. 1988. “Restless Bandits: Activity Allocation in a Changing World.” In A Celebration of Applied Probability, edited by J. Gani, 25A:287–98. J. Appl. Probab. Sheffield, UK: Applied Probability Trust.
    Zhao, Q. 2020. Multi-Armed Bandits: Theory and Applications to Online Learning in Networks. Morgan & Claypool.


    Más BEIO

    Uso de app’s para recogida de datos en la estadística oficial

    Los institutos oficiales de estadística europeos han realizado un gran esfuerzo durante los últimos años para adaptarse al avance de las nuevas tecnologías estableciendo un nuevo canal de recogida de datos basados en cuestionarios web de auto-cumplimentación. Eustat, el Instituto Vasco de Estadística, lleva trabajando desde el año 2017 en el desarrollo de app’s para teléfonos móviles.

    New advances in set estimation

    Some recent advances in Set Estimation, from 2009 to the present, are discussed. These include some new findings, improved convergence rates, and new type of sets under study. Typically, the theoretical results are derived under some shape constrains, such as r-convexity or positive reach, which are briefly reviewed, together with some other new proposals in this line. Known constraints on the shape, such as r-convexity and positive reach, as well as recently introduced ones are discussed. The estimation of the home-range of a species, which is closely related to set estimation, is also explored, and statistical problems on manifolds are covered. Commentary and references are provided for readers interested in delving deeper into the subject.

    Problemas de Elección Social en el Contexto de los Problemas de Asignación

    En este trabajo proponemos un método de elección social basado en el problema de asignación de la investigación de operaciones, en particular consideramos un proceso de votación donde los votantes enumeran según sus preferencias a cada uno de los n candidatos disponibles, luego entonces nosotros construimos una matriz de asignación donde las “tareas” por realizar son los puestos 1,2,…n; siendo el puesto número 1 el principal y el n-ésimo el de menor jerarquía. El valor de la posición ij de la matriz se obtiene considerando el número de veces que el candidato i fue seleccionado para “ocupar” el puesto j. Así obtenemos una matriz de rendimiento y se busca la mejor asignación. Usamos bases de datos obtenidos de algunos procesos de elección en los Estados Unidos de América y comparamos los resultados que se obtendrían con nuestra propuesta, adicionalmente se construyen ejemplos para demostrar que nuestro método no es equivalente a los métodos de Borda, Condorcet y mayoría simple.

    Técnicas de diferenciabilidad con aplicaciones estadísticas

    En esta tesis doctoral se han explorado diferentes aplicaciones del conocido Método delta (Capítulo 2). En concreto, se han calculado las derivadas de Hadamard direccional de diferentes funcionales de tipo supremo en diferentes contextos. A continuación, se han investigado aplicaciones a inferencia no-paramétrica (Capítulo 3), a los problemas de dos muestras u homogeneidad (Capítulo 4) y a la metodología de k-medias (Capítulo 5).

    Relevance and identification of biases in statistical graphs by prospective Primary school teachers

    El enorme poder de visualización de la información basada en datos representada mediante gráficos estadísticos, hace especialmente interesante el estudio del entendimiento de dicha información por parte de los ciudadanos que se enfrentan a ella día a día. Al mismo tiempo, en el ámbito de didáctica de la estadística se investiga para conocer cómo se produce la transferencia de conocimiento estadístico en la escuela. Así, aunando ambos fines, el propósito del presente estudio exploratorio es observar el grado de alfabetización estadística que poseen los futuros maestros en base a la evaluación de los gráficos estadísticos, frecuentemente utilizados en los medios de comunicación, y la identificación de los sesgos que debido a su visualización selectiva de los datos a veces estos presentan. Los resultados muestran, de forma implícita, una aceptable identificación de convenios para cada gráfico estudiado mientras que evidencia una muy pobre identificación de sesgos o errores en dichas imágenes. Con ello se deduce una necesidad de refuerzo educativo en cuanto a la enseñanza y aprendizaje de la estadística, concretamente, en los estudiantes del Grado de Educación Primaria para, mediante ello, conseguir ciudadanos con una alfabetización estadística funcional desde la escuela.

    Learning to build statistical indicators from open data sources

    The paper presents the building of several statistical indicators from different Open Data sources, all of them using a common methodological approach to estimate changes across time. The purpose is to show the problems that must be addressed when using these data and to learn about the different ways to cope with them, according to the type of information, the data available and the aim of the specific indicator. The raw data come from diverse secondary sources that make it publicly accessible: traffic sensors, multichannel citizen attention services, Twitter messages and scraped data from a digital newspapers’ library website. The built indicators may be used as proxies or lead indicators for economic activities or social sentiments.