Una de las inquietudes que ha tenido el ser humano desde siempre es la de observar y contar ocurrencias, ya sean catástrofes o estrellas; a pesar de ello, establecer el origen de la actual teoría de los procesos puntuales es muy difícil. La teoría de los procesos de renovación, es decir la observación del tiempo entre ocurrencias, es quizá uno de los primeros campos que conforman la actual teoría, siendo las tres ramas más significativas de aplicación la teoría de colas, la teoría actuarial y la teoría de fiabilidad.
Ligada a la teoría de los procesos puntuales siempre se encuentra la teoría de los procesos de recuento, en la cual la teoría de probabilidad de distribuciones discretas tiene un papel primordial. Desde el descubrimiento de la distribución de Poisson como límite de una binomial, han sido y siguen siendo muchos los estudios que toman como proceso de recuento más básico al proceso de Poisson a partir del cual desarrollan otros más complejos.
En 1955, David Cox presenta diversas cuestiones interesantes así como distintos modelos entre los que se encontraba el proceso de Poisson doblemente estocástico, conocido también como proceso de Cox. La mayor aportación de este nuevo proceso era la naturaleza estocástica de su intensidad, convirtiéndola a su vez en un proceso. Este hecho hace que el proceso de Cox sea una generalización de los anteriores, aportando una mayor flexibilidad a la hora de modelizar distintos recuentos de sucesos. El estudio más detallado de estos procesos lo realizó Snyder y Miller en 1991.
Es clara la relevancia y el interés que tienen estos procesos, por lo que la presente memoria, siguiendo la perspectiva de Snyder y Miller, realiza un estudio en profundidad de los mismos, proporcionando ecuaciones cerradas tanto de los estadísticos de recuento como de tiempo, pudiendo así hacer inferencia sobre los mismos.
Una de las aportaciones más relevantes reside en el hecho de que no es necesario establecer grandes restricciones y supuestos sobre el proceso intensidad, que suele ser lo habitual a la hora de modelizar fenómenos con procesos doblemente estocásticos, para poder estimar y predecir el proceso de Cox. Este hecho se consigue gracias al estudio del proceso intensidad y del proceso media utilizando técnicas de análisis funcional de datos.
Otra aportación fundamental de la memoria es la definición del nuevo proceso denominado proceso tipo fase y que es utilizado como proceso intensidad dada su idoneidad para ello. Este nuevo proceso se construye a partir de distribuciones tipo fase como marginales cuyos parámetros pueden ser aleatorios.
Tras el estudio de los procesos de Cox, se ahonda también en una generalización de ellos, un proceso marcado, el proceso de Cox compuesto, tras un estudio pormenorizado de sus estadísticos, se ha realizado inferencia sobre ellos desarrollando incluso un contraste de bondad de ajuste de modo análogo al propuesto para el proceso de Cox.
Si difícil es proporcionar expresiones cerradas para los estadísticos de los procesos anteriores, la dificultad se ve incrementada en el caso de los procesos auto-excitados. Estos procesos se caracterizan por tener dependencia del pasado. Tomando como base la intensidad condicionada al recuento se desarrollaron dichas ecuaciones, construyendo incluso un estimador puntual que sirve para poder construir estimadores de los estadísticos del proceso.
Con el fin de evaluar los resultados teóricos obtenidos, se han puesto en práctica tanto en simulaciones como en aplicaciones sobre datos reales, ratificándose en todos los casos el buen funcionamiento de los mismos.
© 2008-2024 Fundación Dialnet · Todos los derechos reservados