Ir al contenido

Documat


Método heurístico para particionamiento óptimo

  • de los Cobos Silva, Sergio Gerardo [1] ; Trejos Zelaya, Javier [2] ; Pérez Salvador, Blanca Rosa [1] ; Gutiérrez Andrade, Miguel Ángel [1]
    1. [1] Universidad Autónoma Metropolitana

      Universidad Autónoma Metropolitana

      México

    2. [2] Universidad de Costa Rica

      Universidad de Costa Rica

      Hospital, Costa Rica

  • Localización: Revista de Matemática: Teoría y Aplicaciones, ISSN 2215-3373, ISSN-e 2215-3373, Vol. 10, Nº. 1-2, 2003, págs. 11-22
  • Idioma: español
  • DOI: 10.15517/rmta.v10i1-2.221
  • Enlaces
  • Resumen
    • español

      Muchos problemas en el an´alisis de datos requieren del particionamiento no supervisadode un conjunto de datos dentro de clases o conglomerados no vac´?os quesean bien separados entre ellos y lo m´as homog´eneos entre s´?. Un particionamientoideal es cuando se puede asignar cada elemento del conjunto a una clase sin queexista ambig?uedades. Este trabajo consta de dos partes principales; primero se presentandiferentes m´etodos y heur´?sticas para encontrar la cantidad de clases en quese debe particionar un conjunto de manera ´optima; posteriormente se propone unanovedosa heur´?stica y se realizan algunas comparaciones para observar sus ventajasconsiderando conjuntos muy conocidos y utilizados que est´an previamente clasificadospresent´andose al final algunos resultados y conclusiones.Palabras clave: Particionamiento ´optimo, clasificaci´on, heur´?sticas.

    • English

      Many data analysis problems deal with non supervised partitioning of a data set,in non empty clusters well separated between them and homogeneous within the clusters.An ideal partitioning is obtained when any object can be assigned a class without ambiguity. The present paper has two main parts; first, we present different methodsand heuristics that find the number of clusters for optimal partitioning of a set; afterwards,we propose a new heuristic and we perform different comparisons in orderto evaluate the advantages on well known data sets; we end the paper with someconcluding remarks.Keywords: Optimal partitioning, clustering, classification, heuristics.

  • Referencias bibliográficas
    • de-los-Cobos-Silva, S.; Goddard, J.; Pérez, B.R.; Gutiérrez, M.A. (2001) “SCA: sistema de clasificación aleatoria”, XV Foro Nacional de Estadística,...
    • Girolami, M. (2001) “Mercer kernel based clustering in feature space”, I.E.E.E. Transactions on Neural Networks (to appear).
    • Goddard, J.; de-los-Cobos-Silva, S. (2000) “On a class of distance metrics for fuzzy c-means”, Proc. VII Congress of SIGEF, Chania, Greece:...
    • Roberts, S.J.; Everson, R.; Rezek, I. (2000) “Maximum certainty data partitioning”, I.E.E.E. Patterns Recognotition 33(5): 833–839.
    • Roberts, S.J.; Everson, R.; Rezek, I.(2001) “Minimum entropy data partitioning”, Technical report, IISGroup, Dep. EEE, Imperial College of...
    • Roberts, S.J.; Everson, R.; Rezek, I.(2001). “Minimum-entropy data clustering using reversible jump Markov chain Monte Carlo”, (to appear...
    • Trejos, J.; Murillo, A.; Piza, E. (1998) “Global stochastic optimization for partitioning”, in: A. Rizzi et al. (Eds.), Advances in Data Science...
    • Romesburg, H.C. (1984) Cluster Analysis for Researchers. Krieger Publishing Company.
    • Trejos, J. (1996) “Propiedades y aplicaciones de una medida de redundancia de la información: el número equivalente”, Mem. X Foro Nacional...
    • http://www.ics.uci.edu/pub/machine-learning-databases.

Fundación Dialnet

Mi Documat

Opciones de artículo

Opciones de compartir

Opciones de entorno