Ir al contenido

Documat


Resumen de Medidas de divergencia en análisis de datos

Miquel Salicrú Pagés Árbol académico

  • EN ESTA MEMORIA ESTUDIAMOS LAS MEDIDAS DE DIVERGENCIA EN ANALISIS DE DATOS A PARTIR DE LA CLASIFICACION DE MEDIDAS DE DISTANCIACION REALIZADA POR BURBEA Y RAO (1982) EN LA QUE SE PRESENTAN LAS FAMILIAS DE LA J K L Y M DIVERGENCIAS, DE FORMA GLOBAL EN LA PRIMERA PARTE DE LA MEMORIA ANALIZAMOS LA CONVEXIDAD Y SIMETRIA DE LAS DIVERGENCIAS HALLAMOS RELACIONES DE IGUALDAD Y DESIGUALDAD ENTRE DIVERGENCIAS ATENDIENDO A LAS FUNCIONES QUE LAS DETERMINAN Y FINALMENTE EXTENDEMOS ESTAS MEDIDAS A MEDIDAS LOGARITMICAS DE FORMA ANALOGA A LA REALIZADA EN LA ENTROPIA DE RENYI A TRAVES DE LA ENTROPIA DE HAVRDA-CHARVAT.

    EN LA SEGUNDA PARTE DEL TRABAJO PLANTAMOS METRICAS DIFERENCIALES ASOCIADAS A DIVERGENCIAS DEFINIDAS EN FAMILIAS PARAMETRICAS DE FUNCIONES DE DENSIDAD DE PROBABILIDAD Y DETERMINAMOS LAS FUNCIONES QUE PROPORCIONAN DIVERGENCIAS INVARIANTES A NIVEL DIFERENCIAL FRENTE A TRANSFORMACIONES NO SINGULARES DE PARAMETROS Y VARIABLES ALEATORIAS.

    FINALMENTE PLANTEAMOS LAS MEDIDAS DE INCERTIDUMBRE ASOCIADAS A J-DIVERGENCIAS COMO MEDIDAS QUE PROVIENEN DE LA DISTANCIA ENTRE UNA DISTRIBUCION Y LA DISTRIBUCION EN LA QUE TODOS LOS SUCESOS SON EQUIPROBABLES ESTUDIAMOS CONDICIONES PARA LA CONCAVIDAD Y NO NEGATIVIDAD DE LAS MEDIDAS PROPUESTAS OBTENEMOS LAS MEDIDAS DE ENTROPIA COMUNMENTE USADAS Y LAS O-ENTROPIAS COMO CASOSPARTICULARES DE MEDIDAS DE INCERTIDUMBRE ASOCIADAS A J-DIVERGENCIAS Y FINALMENTE COMPARAMOS LAS CARACTERISTICAS MUESTRALES DEL INDICE DE INCERTIDUMBREASOCIADO A LA FUNCION O(T)=T LOG T CON LOS INDICES DE ENTROPIA MAS COMUNES ATENDIENDO EN PRIMER LUGAR A DOS ESTADISTICOS DE DISPERSION (UNO ESTANDARIZADO Y OTRO NO) Y EN SEGUNDO LUGAR AL COEFICIENTE DE CORRELACION DE SPEARMAN.


Fundación Dialnet

Mi Documat