Se aborda la problemática de la reducción de los errores que se producen durante la introducción de los datos y que no pueden controlarse mediante protecciones automáticas. Frente a este problema, la estrategia habitual es la "doble entrada" (DE) de los datos, la cual aumenta considerablemente el coste de la investigación. Como alternativa a esta estrategia se propone un nuevo procedimiento, implementado en el Sistema DAT, que se basa en un proceso de "verificación aleatoria" (VA) de un porcentaje del total de datos. Además de reducir el coste, la VA ofrece otras ventajas como el hecho de proporcionar una estimación del porcentaje de errores, y ofrecer un índice de aptitud y eficacia de los operadores. En la segunda parte del artículo se presentan los resultados de un experimento que sustenta la hipótesis de que la VA aumenta la eficacia de la entrada de datos, sin mengua de la eficiencia, cuando se compara con situaciones en las cuales no se aplica ningún control que permita obtener un indicador sobre la calidad de los datos que se introducen
© 2008-2024 Fundación Dialnet · Todos los derechos reservados