La memoria trata del diagnóstico de modelos, Entendemos por tal la investigación de la compatibilidad de los datos observados con el modelo supuesto sin considerar explícitamente modelos alternativos. En el caso de proponer modelos alternativos hablaríamos de "selección de modelos". En la mayoría investigamos distintos métodos de diagnóstico de modelos desde una perspectiva baysiana, comparándolos también con algún método estándar de la estadística frecuentista.
Supongamos el modelo paramétrico HO: X - f(x/mu) Que modeliza la muestra X observada en la población de interés. El problema de diagnosticar HO puede ser planteado como el resultado de distintas elecciones de las siguientes herramientas:
1,- Un estadístico de diagnóstico T = T(X) que mide la incompatibilidad de los datos observados, T(xobs) = tobs, con el modelo.
2,- Una distribución para T completamente especificada, es decir que no depende de parámetros desconocidos, bajo HO.
3,- Una medida que localice el valor observado tobs en la distribución para T, de manera que se cuantifique lo compatible o incompatible que son los datos con el modelo asumido. Las denominamos "medidas de sorpresa".
La correcta elección de cada elemento es importante y conlleva que el método de diagnóstico sea más o menos eficaz. Nosotros nos centramos en investigar distintas elecciones de (2) y (3), siendo el objetivo primordial estudiar cuál es la elección óptima de (2), para cualquier elección que se haga de T y de la medida de sorpresa.
A lo largo de toda la memoria utilizamos dos medidas de sorpresa, el p-valor y la sorpresa predictiva relativa: Para T >>h(t) bajo HO, y si valores grandes de T indican sorpresa, ambas medidas se definen como:
ph(t) = Pr hO (T>tobs) SPR-hO = h(tobs)/sup-t h(t) Cuando la distribución h(t) está completamente especificada, ambas medidas están perfectamente definidas. Ahora bien, en el caso en que dependa de
© 2008-2024 Fundación Dialnet · Todos los derechos reservados